home *** CD-ROM | disk | FTP | other *** search
/ Ian & Stuart's Australian Mac: Not for Sale / Another.not.for.sale (Australia).iso / hold me in your arms / RSA Cryptography.faq < prev    next >
Text File  |  1994-11-17  |  155KB  |  2,982 lines

  1.  
  2. (This document has been brought to you in part by CRAM.  See the
  3. bottom for more information, including instructions on how to
  4. obtain updates.)
  5.  
  6. ===
  7.  
  8.  
  9.                           Answers To
  10.                  FREQUENTLY ASKED QUESTIONS
  11.                  About Today's Cryptography
  12.  
  13.  
  14.  
  15.                           Paul Fahn
  16.                       RSA Laboratories
  17.                      100 Marine Parkway
  18.                    Redwood City, CA  94065
  19.  
  20.  
  21.  
  22.    Copyright (c) 1993 RSA Laboratories, a division of RSA Data Security,
  23.       Inc. All rights reserved.
  24.  
  25.    Version 2.0, draft 2f
  26.    Last update: September 20, 1993
  27.  
  28.  
  29.  
  30. ------------------------------------------------------------------------
  31.                          Table of Contents
  32.  
  33. [ part 1 ]
  34.  
  35. 1 General 
  36.        1.1  What is encryption? 
  37.        1.2  What is authentication? What is a digital signature? 
  38.        1.3  What is public-key cryptography? 
  39.        1.4  What are the advantages and disadvantages of public-key 
  40.             cryptography over secret-key cryptography? 
  41.        1.5  Is cryptography patentable in the U.S.? 
  42.        1.6  Is cryptography exportable from the U.S.? 
  43.  
  44. 2 RSA 
  45.        2.1  What is RSA? 
  46.        2.2  Why use RSA rather than DES? 
  47.        2.3  How fast is RSA? 
  48.        2.4  How much extra message length is caused by using RSA? 
  49.        2.5  What would it take to break RSA? 
  50.        2.6  Are strong primes necessary in RSA? 
  51.        2.7  How large a modulus (key) should be used in RSA? 
  52.        2.8  How large should the primes be? 
  53.        2.9  How does one find random numbers for keys? 
  54.        2.10  What if users of RSA run out of distinct primes? 
  55.        2.11  How do you know if a number is prime? 
  56.        2.12  How is RSA used for encryption in practice? 
  57.        2.13  How is RSA used for authentication in practice? 
  58.        2.14  Does RSA help detect altered documents and transmission errors? 
  59.        2.15  What are alternatives to RSA? 
  60.        2.16  Is RSA currently in use today? 
  61.        2.17  Is RSA an official standard today? 
  62.        2.18  Is RSA a de facto standard? Why is a de facto standard important? 
  63.        2.19  Is RSA patented? 
  64.        2.20  Can RSA be exported from the U.S.? 
  65.  
  66. [ part 2 ]
  67.  
  68. 3 Key Management 
  69.        3.1  What key management issues are involved in public-key 
  70.             cryptography? 
  71.        3.2  Who needs a key? 
  72.        3.3  How does one get a key pair? 
  73.        3.4  Should a public key or private key be shared among users? 
  74.        3.5  What are certificates? 
  75.        3.6  How are certificates used? 
  76.        3.7  Who issues certificates and how? 
  77.        3.8  What is a CSU, or, How do certifying authorities store their 
  78.             private keys? 
  79.        3.9  Are certifying authorities susceptible to attack? 
  80.        3.10  What if the certifying authority's key is lost or compromised? 
  81.        3.11  What are Certificate Revocation Lists (CRLs)? 
  82.        3.12  What happens when a key expires? 
  83.        3.13  What happens if I lose my private key? 
  84.        3.14  What happens if my private key is compromised? 
  85.        3.15  How should I store my private key? 
  86.        3.16  How do I find someone else's public key? 
  87.        3.17  How can signatures remain valid beyond the expiration dates of 
  88.              their keys, or, How do you verify a 20-year-old signature? 
  89.        3.18  What is a digital time-stamping service? 
  90.  
  91. 4 Factoring and Discrete Log 
  92.        4.1  What is a one-way function? 
  93.        4.2  What is the significance of one-way functions for cryptography? 
  94.        4.3  What is the factoring problem? 
  95.        4.4  What is the significance of factoring in cryptography? 
  96.        4.5  Has factoring been getting easier? 
  97.        4.6  What are the best factoring methods in use today? 
  98.        4.7  What are the prospects for theoretical factoring breakthroughs? 
  99.        4.8  What is the RSA Factoring Challenge? 
  100.        4.9  What is the discrete log problem? 
  101.        4.10  Which is easier, factoring or discrete log? 
  102.  
  103. 5 DES 
  104.        5.1  What is DES? 
  105.        5.2  Has DES been broken? 
  106.        5.3  How does one use DES securely? 
  107.        5.4  Can DES be exported from the U.S.? 
  108.        5.5  What are the alternatives to DES? 
  109.        5.6  Is DES a group? 
  110.  
  111. [part 3]
  112.  
  113. 6 Capstone, Clipper, and DSS 
  114.        6.1  What is Capstone? 
  115.        6.2  What is Clipper? 
  116.        6.3  How does the Clipper chip work? 
  117.        6.4  Who are the escrow agencies? 
  118.        6.5  What is Skipjack? 
  119.        6.6  Why is Clipper controversial? 
  120.        6.7  What is the current status of Clipper? 
  121.        6.8  What is DSS? 
  122.        6.9  Is DSS secure? 
  123.        6.10  Is use of DSS covered by any patents? 
  124.        6.11  What is the current status of DSS? 
  125.  
  126. 7 NIST and NSA 
  127.        7.1  What is NIST? 
  128.        7.2  What role does NIST play in cryptography? 
  129.        7.3  What is the NSA? 
  130.        7.4  What role does the NSA play in commercial cryptography? 
  131.  
  132. 8 Miscellaneous 
  133.        8.1  What is the legal status of documents signed with digital 
  134.             signatures? 
  135.        8.2  What is a hash function? What is a message digest? 
  136.        8.3  What are MD2, MD4 and MD5? 
  137.        8.4  What is SHS? 
  138.        8.5  What is Kerberos? 
  139.        8.6  What are RC2 and RC4? 
  140.        8.7  What is PEM? 
  141.        8.8  What is RIPEM? 
  142.        8.9  What is PKCS? 
  143.        8.10  What is RSAREF? 
  144.  
  145. --------------------------------------------------------------------
  146.  
  147.  
  148. 1 General
  149.  
  150. 1.1 What is encryption?
  151.  
  152. Encryption is the transformation of data into a form unreadable by anyone
  153. without a secret decryption key. Its purpose is to ensure privacy by
  154. keeping the information hidden from anyone for whom it is not intended, 
  155. even those who can see the encrypted data. For example, one may wish to 
  156. encrypt files on a hard disk to prevent an intruder from reading them. 
  157.  
  158. In a multi-user setting, encryption allows secure communication over an
  159. insecure channel. The general scenario is as follows: Alice wishes to 
  160. send a message to Bob so that no one else besides Bob can read it. Alice 
  161. encrypts the message, which is called the plaintext, with an encryption 
  162. key; the encrypted message, called the ciphertext, is sent to Bob. Bob 
  163. decrypts the ciphertext with the decryption key and reads the message. An 
  164. attacker, Charlie, may either try to obtain the secret key or to recover 
  165. the plaintext without using the secret key. In a secure cryptosystem, the 
  166. plaintext cannot be recovered from the ciphertext except by using the 
  167. decryption key. In a symmetric cryptosystem, a single key serves as both 
  168. the encryption and decryption keys.
  169.  
  170. Cryptography has been around for millennia; see Kahn [37] for a 
  171. good history of cryptography; see Rivest [69] and Brassard
  172. [10] for an introduction to modern cryptography.
  173.  
  174.  
  175. 1.2 What is authentication? What is a digital signature?
  176.  
  177. Authentication in a digital setting is a process whereby the receiver of a 
  178. digital message can be confident of the identity of the sender and/or the
  179. integrity of the message. Authentication protocols can be based on either 
  180. conventional secret-key cryptosystems like DES or on public-key systems 
  181. like RSA; authentication in public-key systems uses digital signatures.
  182.  
  183. In this document, authentication will generally refer to the use of digital
  184. signatures, which play a function for digital documents similar to that 
  185. played by handwritten signatures for printed documents: the signature is an 
  186. unforgeable piece of data asserting that a named person wrote or otherwise 
  187. agreed to the document to which the signature is attached. The recipient, as 
  188. well as a third party, can verify both that the document did indeed originate 
  189. from the person whose signature is attached and that the document has not 
  190. been altered since it was signed. A secure digital signature system thus 
  191. consists of two parts: a method of signing a document such that forgery is 
  192. infeasible, and a method of verifying that a signature was actually generated 
  193. by whomever it represents. Furthermore, secure digital signatures cannot be 
  194. repudiated; i.e., the signer of a document cannot later disown it by claiming 
  195. it was forged.
  196.  
  197. Unlike encryption, digital signatures are a recent development, the
  198. need for which has arisen with the proliferation of digital communications.
  199.  
  200.  
  201. 1.3 What is public-key cryptography? 
  202.  
  203. Traditional cryptography is based on the sender and receiver of a message 
  204. knowing and using the same secret key: the sender uses the secret key to 
  205. encrypt the message, and the receiver uses the same secret key to decrypt 
  206. the message. This method is known as secret-key cryptography. The main 
  207. problem is getting the sender and receiver to agree on the secret key 
  208. without anyone else finding out. If they are in separate physical locations, 
  209. they must trust a courier, or a phone system, or some other transmission 
  210. system to not disclose the secret key being communicated. Anyone who 
  211. overhears or intercepts the key in transit can later read all messages 
  212. encrypted using that key. The generation, transmission and storage of keys 
  213. is called key management; all cryptosystems must deal with key management 
  214. issues. Secret-key cryptography often has difficulty providing secure key 
  215. management.
  216.  
  217. Public-key cryptography was invented in 1976 by Whitfield Diffie and
  218. Martin Hellman [29] in order to solve the key management problem. In the 
  219. new system, each person gets a pair of keys, called the public key and 
  220. the private key. Each person's public key is published while the private 
  221. key is kept secret. The need for sender and receiver to share secret 
  222. information is eliminated: all communications involve only public keys, 
  223. and no private key is ever transmitted or shared. No longer is it necessary 
  224. to trust some communications channel to be secure against eavesdropping 
  225. or betrayal. Anyone can send a confidential message just using public 
  226. information, but it can only be decrypted with a private key that is in 
  227. the sole possession of the intended recipient. Furthermore, public-key 
  228. cryptography can be used for authentication (digital signatures) as well as 
  229. for privacy (encryption). 
  230.  
  231. Here's how it works for encryption: when Alice wishes to send a message to 
  232. Bob, she looks up Bob's public key in a directory, uses it to encrypt the 
  233. message and sends it off. Bob then uses his private key to decrypt the 
  234. message and read it. No one listening in can decrypt the message. Anyone 
  235. can send an encrypted message to Bob but only Bob can read it. Clearly, one 
  236. requirement is that no one can figure out the private key from the 
  237. corresponding public key.
  238.  
  239. Here's how it works for authentication: Alice, to sign a message, does
  240. a computation involving both her private key and the message itself; the
  241. output is called the digital signature and is attached to the message,
  242. which is then sent. Bob, to verify the signature, does some computation 
  243. involving the message, the purported signature, and Alice's public key. If 
  244. the results properly hold in a simple mathematical relation, the signature 
  245. is verified as genuine; otherwise, the signature may be fraudulent or the 
  246. message altered, and they are discarded.
  247.  
  248. A good history of public-key cryptography, by one of its inventors, is 
  249. given by Diffie [27].
  250.  
  251.  
  252. 1.4 What are the advantages and disadvantages of public-key cryptography 
  253.     over secret-key cryptography?}
  254.  
  255. The primary advantage of public-key cryptography is increased security: 
  256. the private keys do not ever need to be transmitted or revealed to anyone. 
  257. In a secret-key system, by contrast, there is always a chance that an 
  258. enemy could discover the secret key while it is being transmitted.
  259.  
  260. Another major advantage of public-key systems is that they can provide 
  261. a method for digital signatures. Authentication via secret-key systems
  262. requires the sharing of some secret and sometimes requires trust of a 
  263. third party as well. A sender can then repudiate a previously signed message 
  264. by claiming that the shared secret was somehow compromised by one of the
  265. parties sharing the secret. For example, the Kerberos secret-key 
  266. authentication system [79] involves a central database that keeps copies 
  267. of the secret keys of all users; a Kerberos-authenticated message would 
  268. most likely not be held legally binding, since an attack on the database 
  269. would allow widespread forgery. Public-key authentication, on the other 
  270. hand, prevents this type of repudiation; each user has sole responsibility 
  271. for protecting his or her private key. This property of public-key 
  272. authentication is often called non-repudiation. 
  273.  
  274. Furthermore, digitally signed messages can be proved authentic to a third 
  275. party, such as a judge, thus allowing such messages to be legally binding. 
  276. Secret-key authentication systems such as Kerberos were designed to 
  277. authenticate access to network resources, rather than to authenticate 
  278. documents, a task which is better achieved via digital signatures.
  279.  
  280. A disadvantage of using public-key cryptography for encryption is speed: 
  281. there are popular secret-key encryption methods which are significantly 
  282. faster than any currently available public-key encryption method. But 
  283. public-key cryptography can share the burden with secret-key cryptography 
  284. to get the best of both worlds. 
  285.  
  286. For encryption, the best solution is to combine public- and secret-key 
  287. systems in order to get both the security advantages of public-key systems 
  288. and the speed advantages of secret-key systems. The public-key system can 
  289. be used to encrypt a secret key which is then used to encrypt the bulk 
  290. of a file or message. This is explained in more detail in Question 2.12
  291. in the case of RSA. Public-key cryptography is not meant to replace 
  292. secret-key cryptography, but rather to supplement it, to make it more 
  293. secure. The first use of public-key techniques was for secure key exchange 
  294. in an otherwise secret-key system [29]; this is still one of its primary 
  295. functions.
  296.  
  297. Secret-key cryptography remains extremely important and is the subject of
  298. much ongoing study and research. Some secret-key encryption systems are 
  299. discussed in Questions 5.1 and 5.5.
  300.  
  301.  
  302. 1.5 Is cryptography patentable in the U.S.?
  303.  
  304. Cryptographic systems are patentable. Many secret-key cryptosystems 
  305. have been patented, including DES (see Question 5.1). The basic ideas 
  306. of public-key cryptography are contained in U.S. Patent 4,200,770, by M.
  307. Hellman, W. Diffie, and R. Merkle, issued 4/29/80 and in U.S. Patent 
  308. 4,218,582, by M. Hellman and R. Merkle, issued 8/19/80; similar patents have 
  309. been issued throughout the world. The exclusive licensing rights to both 
  310. patents are held by Public Key Partners (PKP), of Sunnyvale, California, 
  311. which also holds the rights to the RSA patent (see Question 2.19). 
  312. Usually all of these public-key patents are licensed together. 
  313.  
  314. All legal challenges to public-key patents have been settled before
  315. judgment. In a recent case, for example, PKP brought suit against the TRW 
  316. Corporation which was using public-key cryptography (the ElGamal system) 
  317. without a license; TRW claimed it did not need to license. In June 1992 a 
  318. settlement was reached in which TRW agreed to license to the patents.
  319.  
  320. Some patent applications for cryptosystems have been blocked by intervention 
  321. by the NSA (see Question 7.3) or other intelligence or defense agencies, 
  322. under the authority of the Invention Secrecy Act of 1940 and the National 
  323. Security Act of 1947; see Landau [46] for some recent cases related to 
  324. cryptography.
  325.  
  326.  
  327. 1.6 Is cryptography exportable from the U.S.?
  328.  
  329. All cryptographic products need export licenses from the State Department, 
  330. acting under authority of the International Traffic in Arms Regulation 
  331. (ITAR), which defines cryptographic devices, including software, as 
  332. munitions. The U.S. government has historically been reluctant to grant 
  333. export licenses for encryption products stronger than some basic level 
  334. (not publicly stated). 
  335.  
  336. Under current regulations, a vendor seeking to export a product using 
  337. cryptography first submits an request to the State Department's Defense
  338. Trade Control office. Export jurisdiction may then be passed to the
  339. Department of Commerce, whose export procedures are generally simple and
  340. efficient. If jurisdiction remains with the State Department, further
  341. review, perhaps lengthy, is required before export is either approved or
  342. denied; the National Security Agency (NSA, see Question 7.3) may become 
  343. directly involved at this point. The details of the export approval 
  344. process change frequently.
  345.  
  346. The NSA has de facto control over export of cryptographic products. The State 
  347. Department will not grant a license without NSA approval and routinely grants 
  348. licenses whenever NSA does approve. Therefore, the policy decisions over 
  349. exporting cryptography ultimately rest with the NSA.
  350.  
  351. It is the stated policy of the NSA not to restrict export of cryptography
  352. for authentication; it is only concerned with the use of cryptography for 
  353. privacy. A vendor seeking to export a product for authentication only will 
  354. be granted an export license as long as it can demonstrate that the product 
  355. cannot be easily modified for encryption; this is true even for very strong 
  356. systems, such as RSA with large key sizes. Furthermore, the bureaucratic 
  357. procedures are simpler for authentication products than for privacy products. 
  358. An authentication product needs NSA and State Dept. approval only once, 
  359. whereas an encryption product may need approval for every sale or every 
  360. product revision.
  361.  
  362. Export policy is currently a matter of great controversy, as many software
  363. and hardware vendors consider current export regulations overly restrictive 
  364. and burdensome. The Software Publishers Association (SPA), a software 
  365. industry group, has recently been negotiating with the government in order 
  366. to get export license restrictions eased; one agreement was reached that 
  367. allows simplified procedures for export of two bulk encryption ciphers, RC2 
  368. and RC4 (see Question 8.6), when the key size is limited. Also, export 
  369. policy is less restrictive for foreign subsidiaries and overseas offices of 
  370. U.S. companies.
  371.  
  372. In March 1992, the Computer Security and Privacy Advisory Board voted 
  373. unanimously to recommend a national review of cryptography policy, 
  374. including export policy. The Board is an official advisory board to NIST 
  375. (see Question 7.1) whose members are drawn from both the government 
  376. and the private sector. The Board stated that a public debate is the only 
  377. way to reach a consensus policy to best satisfy competing interests: 
  378. national security and law enforcement agencies like restrictions on 
  379. cryptography, especially for export, whereas other government agencies and 
  380. private industry want greater freedom for using and exporting cryptography. 
  381. Export policy has traditionally been decided solely by agencies concerned 
  382. with national security, without much input from those who wish to encourage 
  383. commerce in cryptography. U.S. export policy may undergo significant change 
  384. in the next few years.
  385.  
  386.  
  387. 2 RSA
  388.  
  389. 2.1 What is RSA?
  390.  
  391. RSA is a public-key cryptosystem for both encryption and authentication;
  392. it was invented in 1977 by Ron Rivest, Adi Shamir, and Leonard Adleman
  393. [74]. It works as follows: take two large primes, p and q, and find their 
  394. product n = pq; n is called the modulus. Choose a number, e, less than n 
  395. and relatively prime to (p-1)(q-1), and find its inverse, d, mod (p-1)(q-1),
  396. which means that ed = 1 mod (p-1)(q-1); e and d are called the public and 
  397. private exponents, respectively. The public key is the pair (n,e); the 
  398. private key is d. The factors p and q must be kept secret, or destroyed. 
  399.  
  400. It is difficult (presumably) to obtain the private key d from the public 
  401. key (n,e). If one could factor n into p and q, however, then one could 
  402. obtain the private key d. Thus the entire security of RSA is predicated 
  403. on the assumption that factoring is difficult; an easy factoring method 
  404. would ``break'' RSA (see Questions 2.5 and 4.4).
  405.  
  406. Here is how RSA can be used for privacy and authentication (in practice, 
  407. actual use is slightly different; see Questions 2.12 and 2.13):
  408.  
  409. RSA privacy (encryption): suppose Alice wants to send a private message, 
  410. m, to Bob. Alice creates the ciphertext c by exponentiating: c = m^e 
  411. mod n, where e and n are Bob's public key. To decrypt, Bob also 
  412. exponentiates: m = c^d mod n, and recovers the original message m;
  413. the relationship between e and d ensures that Bob correctly recovers m.
  414. Since only Bob knows d, only Bob can decrypt. 
  415.  
  416. RSA authentication: suppose Alice wants to send a signed document m to Bob. 
  417. Alice creates a digital signature s by exponentiating: s = m^d mod n, 
  418. where d and n belong to Alice's key pair. She sends s and m to Bob. 
  419. To verify the signature, Bob exponentiates and checks that the message m 
  420. is recovered: m = s^e mod n, where e and n belong to Alice's public 
  421. key.
  422.  
  423. Thus encryption and authentication take place without any sharing of 
  424. private keys: each person uses only other people's public keys and his or 
  425. her own private key. Anyone can send an encrypted message or verify a signed 
  426. message, using only public keys, but only someone in possession of the correct 
  427. private key can decrypt or sign a message. 
  428.  
  429.  
  430. 2.2 Why use RSA rather than DES?
  431.  
  432. RSA is not an alternative or replacement for DES; rather it supplements
  433. DES (or any other fast bulk encryption cipher) and is used together with DES 
  434. in a secure communications environment. (Note: for an explanation of DES,
  435. see Question 5.1.)
  436.  
  437. RSA allows two important functions not provided by DES: secure key exchange 
  438. without prior exchange of secrets, and digital signatures. For encrypting
  439. messages, RSA and DES are usually combined as follows: first the message is 
  440. encrypted with a random DES key, and then, before being sent over an insecure 
  441. communications channel, the DES key is encrypted with RSA. Together, the 
  442. DES-encrypted message and the RSA-encrypted DES key are sent. This protocol 
  443. is known as an RSA digital envelope.
  444.  
  445. One may wonder, why not just use RSA to encrypt the whole message and not use 
  446. DES at all? Although this may be fine for small messages, DES (or another 
  447. cipher) is preferable for larger messages because it is much faster than RSA
  448. (see Question 2.3).
  449.  
  450. In some situations, RSA is not necessary and DES alone is sufficient. This 
  451. includes multi-user environments where secure DES-key agreement can take 
  452. place, for example by the two parties meeting in private. Also, RSA is 
  453. usually not necessary in a single-user environment; for example, if you want 
  454. to keep your personal files encrypted, just do so with DES using, say, your 
  455. personal password as the DES key. RSA, and public-key cryptography in general,
  456. is best suited for a multi-user environment. Also, any system in which digital
  457. signatures are desired needs RSA or some other public-key system.
  458.  
  459.  
  460. 2.3 How fast is RSA?
  461.  
  462. An ``RSA operation,'' whether for encrypting or decrypting, signing
  463. or verifying, is essentially a modular exponentiation, which can be 
  464. performed by a series of modular multiplications.
  465.  
  466. In practical applications, it is common to choose a small public 
  467. exponent for the public key; in fact, entire groups of users can use 
  468. the same public exponent. This makes encryption faster than decryption 
  469. and verification faster than signing. Algorithmically, public-key 
  470. operations take O(k^2) steps, private key operations take O(k^3) 
  471. steps, and key generation takes O(k^4) steps, where k is the number of 
  472. bits in the modulus; O-notation refers to the an upper bound on the 
  473. asymptotic running time of an algorithm [22].
  474.  
  475. There are many commercially available hardware implementations of RSA, 
  476. and there are frequent announcements of newer and faster chips. The 
  477. fastest current RSA chip [76] has a throughput greater than 600 Kbits 
  478. per second with a 512-bit modulus, implying that it performs over 1000 
  479. RSA private-key operations per second. It is expected that RSA speeds 
  480. will reach 1 Mbit/second within a year or so.
  481.  
  482. By comparison, DES is much faster than RSA. In software, DES is generally at 
  483. least 100 times as fast as RSA. In hardware, DES is between 1,000 and 10,000
  484. times as fast, depending on the implementations. RSA will probably narrow 
  485. the gap a bit in coming years, as it finds growing commercial markets, but 
  486. will never match the performance of DES.
  487.  
  488.  
  489. 2.4 How much extra message length is caused by using RSA?
  490.  
  491. Only a very small amount of data expansion is involved when using RSA. For 
  492. encryption, a message may be padded to a length that is a multiple of the 
  493. block length, usually 64 bits, since RSA is usually combined with a 
  494. secret-key block cipher such as DES (see Question 2.12). Encrypting 
  495. the DES key takes as many additional bits as the size of the RSA modulus.
  496.  
  497.  
  498. For authentication, an RSA digital signature is appended to a document.
  499. An RSA signature, including information such as the name of the signer, is 
  500. typically a few hundred bytes long. One or more certificates (see Question 
  501. 3.5) may be included as well; certificates can be used in conjunction
  502. with any digital signature method. A typical RSA certificate is a few 
  503. hundred bytes long.
  504.  
  505.  
  506. 2.5 What would it take to break RSA?
  507.  
  508. There are a few possible interpretations of ``breaking RSA''. The most 
  509. damaging would be for an attacker to discover the private key corresponding 
  510. to a given public key; this would enable the attacker both to read all 
  511. messages encrypted with the public key and to forge signatures. The obvious 
  512. way to do this attack is to factor the public modulus, n, into its two prime
  513. factors, p and q. From p, q, and e, the public exponent, the attacker can 
  514. easily get d, the private key. The hard part is factoring n; the security 
  515. of RSA depends of factoring being difficult. In fact, the task of recovering
  516. the private key is equivalent to the task of factoring the modulus: you can 
  517. use d to factor n, as well as use the factorization of n to find d. See 
  518. Questions 4.5 and 4.6 regarding the state of the art in factoring. It should
  519. be noted that hardware improvements alone will not weaken RSA, as long as
  520. appropriate key lengths are used; in fact, hardware improvements should 
  521. increase the security of RSA (see Question 4.5).
  522.  
  523. Another way to break RSA is to find a technique to compute e-th roots mod 
  524. n. Since c = m^e, the e-th root of c is the message m. This attack would 
  525. allow someone to recover encrypted messages and forge signatures even 
  526. without knowing the private key. This attack is not known to be equivalent to 
  527. factoring. No methods are currently known that attempt to break RSA in this 
  528. way. 
  529.  
  530. The attacks just mentioned are the only ways to break RSA in such a 
  531. way as to be able to recover all messages encrypted under a given key. 
  532. There are other methods, however, which aim to recover single messages;
  533. success would not enable the attacker to recover other messages 
  534. encrypted with the same key. 
  535.  
  536. The simplest single-message attack is the guessed plaintext attack. An 
  537. attacker sees a ciphertext, guesses that the message might be ``Attack at 
  538. dawn'', and encrypts this guess with the public key of the recipient; by 
  539. comparison with the actual ciphertext, the attacker knows whether or not 
  540. the guess was correct. This attack can be thwarted by appending some random 
  541. bits to the message. Another single-message attack can occur if someone 
  542. sends the same message m to three others, who each have public exponent 
  543. e=3. An attacker who knows this and sees the three messages will be able 
  544. to recover the message m; this attack and ways to prevent it are discussed 
  545. by Hastad [35]. There are also some ``chosen ciphertext'' attacks, in 
  546. which the attacker creates some ciphertext and gets to see the corresponding 
  547. plaintext, perhaps by tricking a legitimate user into decrypting a fake 
  548. message; Davida [23] gives some examples.
  549.  
  550. Of course, there are also attacks that aim not at RSA itself but at
  551. a given insecure implementation of RSA; these do not count as ``breaking
  552. RSA'' because it is not any weakness in the RSA algorithm that is exploited,
  553. but rather a weakness in a specific implementation. For example, if someone 
  554. stores his private key insecurely, an attacker may discover it. One cannot 
  555. emphasize strongly enough that to be truly secure RSA requires a secure 
  556. implementation; mathematical security measures, such as choosing a long key 
  557. size, are not enough. In practice, most successful attacks will likely be 
  558. aimed at insecure implementations and at the key management stages of an RSA 
  559. system. See Section 3 for discussion of secure key management in an 
  560. RSA system.
  561.  
  562.  
  563. 2.6 Are strong primes necessary in RSA?
  564.  
  565. In the literature pertaining to RSA, it has often been suggested that in 
  566. choosing a key pair, one should use ``strong'' primes p and q to generate 
  567. the modulus n. Strong primes are those with certain properties that make 
  568. the product n hard to factor by specific factoring methods; such 
  569. properties have included, for example, the existence of a large prime 
  570. factor of p-1 and a large prime factor of p+1. The reason for these 
  571. concerns is that some factoring methods are especially suited to 
  572. primes p such that p-1 or p+1 has only small factors; strong primes
  573. are resistant to these attacks. 
  574.  
  575. However, recent advances in factoring (see Question 4.6) appear to 
  576. have obviated the advantage of strong primes; the elliptic curve factoring 
  577. algorithm is one such advance. The new factoring methods have as good a 
  578. chance of success on strong primes as on ``weak'' primes; therefore, choosing 
  579. strong primes does not significantly increase resistance to attacks. So for 
  580. now the answer is negative: strong primes are not necessary when using RSA, 
  581. although there is no danger in using them, except that it takes longer to 
  582. generate a key pair. However, new factoring algorithms may be developed in 
  583. the future which once again target primes with certain properties; if so, 
  584. choosing strong primes may again help to increase security. 
  585.  
  586.  
  587. 2.7 How large a modulus (key) should be used in RSA?
  588.  
  589. The best size for an RSA modulus depends on one's security needs. The larger 
  590. the modulus, the greater the security but also the slower the RSA operations. 
  591. One should choose a modulus length upon consideration, first, of one's 
  592. security needs, such as the value of the protected data and how long it needs 
  593. to be protected, and, second, of how powerful one's potential enemy is. 
  594. It is also possible that a larger key size will allow a digitally signed
  595. document to be valid for a longer time; see Question 3.17.
  596.  
  597. A good analysis of the security obtained by a given modulus length is given 
  598. by Rivest [72], in the context of discrete logarithms modulo a prime, but 
  599. it applies to RSA as well. Rivest's estimates imply that a 512-bit modulus 
  600. can be factored with an $8.2 million effort, less in the future. It may 
  601. therefore be advisable to use a longer modulus, perhaps 768 bits in length. 
  602. Those with extremely valuable data (or large potential damage from digital 
  603. forgery) may want to use a still longer modulus. A certifying authority 
  604. (see Question 3.5) might use a modulus of length 1000 bits or more, because 
  605. the validity of so many other key pairs depends on the security of the one 
  606. central key. 
  607.  
  608. The key of an individual user will expire after a certain time, say, two 
  609. years (see Question 3.12). Upon expiration, the user will generate a new 
  610. key which should be at least a few digits longer than the old key to 
  611. reflect the speed increases of computers over the two years. Recommended key 
  612. length schedules will probably be published by some authority or public body. 
  613.  
  614. Users should keep in mind that the estimated times to break RSA are averages 
  615. only. A large factoring effort, attacking many thousands of RSA moduli, may 
  616. succeed in factoring at least one in a reasonable time. Although the security 
  617. of any individual key is still strong, with some factoring methods there is 
  618. always a small chance that the attacker may get lucky and factor it quickly.
  619.  
  620. As for the slowdown caused by increasing the key size (see Question 
  621. 2.3), doubling the modulus length would, on average, increase the 
  622. time required for public-key operations (encryption and signature 
  623. verification) by a factor of 4, and increase the time taken by private 
  624. key operations (decryption and signing) by a factor of 8. The reason that
  625. public-key operations are affected less than private-key operations is that
  626. the public exponent can remain fixed when the modulus is increased, whereas
  627. the private exponent increases proportionally. Key generation time would 
  628. increase by a factor of 16 upon doubling the modulus, but this is a 
  629. relatively infrequent operation for most users.
  630.  
  631.  
  632. 2.8 How large should the primes be?
  633.  
  634. The two primes, p and q, which compose the modulus, should be of
  635. roughly equal length; this will make the modulus harder to factor than
  636. if one of the primes was very small. Thus if one chooses to use a 512-bit 
  637. modulus, the primes should each have length approximately 256 bits.
  638.  
  639.  
  640. 2.9 How does one find random numbers for keys?
  641.  
  642. One needs a source of random numbers in order to find two random primes
  643. to compose the modulus. If one used a predictable method of generating
  644. the primes, an adversary could mount an attack by trying to recreate the
  645. key generation process. 
  646.  
  647. Random numbers obtained from a physical process are in principle the best.
  648. One could use a hardware device, such as a diode; some are sold commercially 
  649. on computer add-in boards for this purpose. Another idea is to use physical 
  650. movements of the computer user, such as keystroke timings measured in
  651. microseconds. By whichever method, the random numbers may still contain
  652. some correlations preventing sufficient statistical randomness. Therefore,
  653. it is best to run them through a good hash function (see Question 8.2) 
  654. before actually using them. 
  655.  
  656. Another approach is to use a pseudorandom number generator fed by a random
  657. seed. Since these are deterministic algorithms, it is important to find
  658. one that is very unpredictable and also to use a truly random seed. There is
  659. a wide literature on the subject of pseudorandom number generators. See
  660. Knuth [41] for an introduction.
  661.  
  662. Note that one does not need random numbers to determine the public and
  663. private exponents in RSA, after choosing the modulus. One can simply
  664. choose an arbitrary value for the public exponent, which then determines
  665. the private exponent, or vice versa.
  666.  
  667.  
  668. 2.10 What if users of RSA run out of distinct primes?
  669.  
  670. There are enough prime numbers that RSA users will never run out of them.
  671. For example, the number of primes of length 512 bits or less exceeds
  672. 10^{150}, according to the prime number theorem; this is more than the 
  673. number of atoms in the known universe.
  674.  
  675.  
  676. 2.11 How do you know if a number is prime?
  677.  
  678. It is generally recommended to use probabilistic primality testing, which
  679. is much quicker than actually proving a number prime. One can use a 
  680. probabilistic test that decides if a number is prime with probability of 
  681. error less than 2^{-100}. For further discussion of some primality testing 
  682. algorithms, see the papers in the bibliography of [5]. For some empirical 
  683. results on the reliability of simple primality tests see Rivest [70]; one 
  684. can perform very fast primality tests and be extremely confident in the 
  685. results. A simple algorithm for choosing probable primes was recently 
  686. analyzed by Brandt and Damgard [9].
  687.  
  688.  
  689. 2.12 How is RSA used for encryption in practice?
  690.  
  691. RSA is combined with a secret-key cryptosystem, such as DES, to encrypt
  692. a message by means of an RSA digital envelope. 
  693.  
  694. Suppose Alice wishes to send an encrypted message to Bob. She first 
  695. encrypts the message with DES, using a randomly chosen DES key. Then 
  696. she looks up Bob's public key and uses it to encrypt the DES key. The 
  697. DES-encrypted message and the RSA-encrypted DES key together form the RSA 
  698. digital envelope and are sent to Bob. Upon receiving the digital envelope, 
  699. Bob decrypts the DES key with his private key, then uses the DES key 
  700. to decrypt to message itself.
  701.  
  702.  
  703. 2.13 How is RSA used for authentication in practice?
  704.  
  705. Suppose Alice wishes to send a signed message to Bob. She uses a hash
  706. function on the message (see Question 8.2) to create a message digest, 
  707. which serves as a ``digital fingerprint'' of the message. She then 
  708. encrypts the message digest with her RSA private key; this is the digital 
  709. signature, which she sends to Bob along with the message itself. Bob, 
  710. upon receiving the message and signature, decrypts the signature with
  711. Alice's public key to recover the message digest. He then hashes the 
  712. message with the same hash function Alice used and compares the result
  713. to the message digest decrypted from the signature. If they are exactly
  714. equal, the signature has been successfully verified and he can be confident
  715. that the message did indeed come from Alice. If, however, they are not 
  716. equal, then the message either originated elsewhere or was altered after
  717. it was signed, and he rejects the message. Note that for authentication, 
  718. the roles of the public and private keys are converse to their roles in 
  719. encryption, where the public key is used to encrypt and the private key 
  720. to decrypt.
  721.  
  722. In practice, the public exponent is usually much smaller than the 
  723. private exponent; this means that the verification of a signature is faster 
  724. than the signing. This is desirable because a message or document will 
  725. only be signed by an individual once, but the signature may be verified 
  726. many times.
  727.  
  728. It must be infeasible for anyone to either find a message that hashes to 
  729. a given value or to find two messages that hash to the same value. If either 
  730. were feasible, an intruder could attach a false message onto Alice's 
  731. signature. Hash functions such as MD4 and MD5 (see Question 8.3) have been 
  732. designed specifically to have the property that finding a match is 
  733. infeasible, and are therefore considered suitable for use in cryptography.
  734.  
  735. One or more certificates (see Question 3.5) may accompany a digital 
  736. signature. A certificate is a signed document attesting to the identity and 
  737. public key of the person signing the message. Its purpose is to prevent
  738. someone from impersonating someone else, using a phony key pair. If a 
  739. certificate is present, the recipient (or a third party) can check the 
  740. authenticity of the public key, assuming the certifier's public key is
  741. itself trusted. 
  742.  
  743.  
  744. 2.14 Does RSA help detect altered documents and transmission errors?
  745.  
  746. An RSA digital signature is superior to a handwritten signature in that
  747. it attests to the contents of a message as well as to the identity of
  748. the signer. As long as a secure hash function (see Question 8.2) is used, 
  749. there is no way to take someone's signature from one document and attach 
  750. it to another, or to alter the signed message in any way. The slightest 
  751. change in a signed document will cause the digital signature verification
  752. process to fail. Thus, RSA authentication allows people to check the
  753. integrity of signed documents. Of course, if a signature verification
  754. fails, it may be unclear whether there was an attempted forgery or 
  755. simply a transmission error.
  756.  
  757.  
  758. 2.15 What are alternatives to RSA?
  759.  
  760. Many other public-key cryptosystems have been proposed, as a look through
  761. the proceedings of the annual Crypto and Eurocrypt conferences quickly 
  762. reveals. A mathematical problem called the knapsack problem was the basis 
  763. for several systems [52], but these have lost favor because several 
  764. versions were broken. Another system, designed by ElGamal [30], is based 
  765. on the discrete logarithm problem. The ElGamal system was, in part, the 
  766. basis for several later signature methods, including one by Schnorr [75], 
  767. which in turn was the basis for DSS, the digital signature standard 
  768. proposed by NIST (see Question 6.8). Because of the NIST proposal, the 
  769. relative merits of these signature systems versus RSA signatures has 
  770. received a lot of attention; see [57] for a discussion. The ElGamal system 
  771. has been used successfully in applications; it is slower for encryption 
  772. and verification than RSA and its signatures are larger than RSA signatures.
  773.  
  774. In 1976, before RSA, Diffie and Hellman [29] proposed a system for key 
  775. exchange only; it permits secure exchange of keys in an otherwise 
  776. conventional secret-key system. This system is in use today.
  777.  
  778. Cryptosystems based on mathematical operations on elliptic curves have 
  779. also been proposed [43,56], as have cryptosystems based on discrete 
  780. exponentiation in the finite field GF(2^n). The latter are very fast in 
  781. hardware; however, doubts have been raised about their security because 
  782. the underlying problem may be easier to solve than factoring [64,34]. 
  783. There are also some probabilistic encryption methods [8,32], which have 
  784. the attraction of being resistant to a guessed ciphertext attack (see 
  785. Question 2.5), but at a cost of data expansion. In probabilistic 
  786. encryption, the same plaintext encrypted twice under the same key will 
  787. give, with high probability, two different ciphertexts.
  788.  
  789. For digital signatures, Rabin [68] proposed a system which is provably 
  790. equivalent to factoring; this is an advantage over RSA, where one may 
  791. still have a lingering worry about an attack unrelated to factoring.
  792. Rabin's method is susceptible to a chosen message attack, however, in which 
  793. the attacker tricks the user into signing messages of a special form. Another 
  794. signature scheme, by Fiat and Shamir [31], is based on interactive 
  795. zero-knowledge protocols, but can be adapted for signatures. It is faster 
  796. than RSA and is provably equivalent to factoring, but the signatures are 
  797. much larger than RSA signatures. Other variations, however, lessen the 
  798. necessary signature length; see [17] for references. A system is 
  799. ``equivalent to factoring'' if recovering the private key is provably as 
  800. hard as factoring; forgery may be easier than factoring in some of the 
  801. systems.
  802.  
  803. Advantages of RSA over other public-key cryptosystems include the fact that 
  804. it can be used for both encryption and authentication, and that it has been 
  805. around for many years and has successfully withstood much scrutiny. RSA has 
  806. received far more attention, study, and actual use than any other public-key 
  807. cryptosystem, and thus RSA has more empirical evidence of its security than 
  808. more recent and less scrutinized systems. In fact, a large number of 
  809. public-key cryptosystems which at first appeared secure were later broken; 
  810. see [13] for some case histories. 
  811.  
  812.  
  813. 2.16 Is RSA currently in use today?
  814.  
  815. The use of RSA is undergoing a period of rapid expansion and may become 
  816. ubiquitous within a few years. It is currently used in a wide variety of 
  817. products, platforms and industries around the world. It is found in many 
  818. commercial software products and planned for many more. RSA is built into 
  819. current or planned operating systems by Microsoft, Apple, Sun, and Novell. 
  820. In hardware, RSA can be found in secure telephones, on Ethernet network 
  821. cards, and on smart cards. RSA is also used internally in many institutions, 
  822. including branches of the U.S. government, major corporations, national 
  823. laboratories, and universities.
  824.  
  825. Adoption of RSA seems to be proceeding more quickly for authentication 
  826. (digital signatures) than for privacy (encryption), perhaps in part because 
  827. products for authentication are easier to export than those for privacy (see 
  828. Question 1.6). 
  829.  
  830.  
  831. 2.17 Is RSA an official standard today?
  832.  
  833. RSA is part of many official standards worldwide. The ISO (International
  834. Standards Organization) 9796 standard lists RSA as a compatible 
  835. cryptographic algorithm, as does the Consultative Committee in International 
  836. Telegraphy and Telephony (CCITT) X.509 security standard. RSA is part of 
  837. the Society for Worldwide Interbank Financial Telecommunications (SWIFT) 
  838. standard, the French financial industry's ETEBAC 5 standard, and the ANSI 
  839. X9.31 draft standard for the U.S. banking industry. The Australian key 
  840. management standard, AS2805.6.5.3, also specifies RSA.
  841.  
  842. RSA is found in Internet's proposed PEM (Privacy Enhanced Mail) standard
  843. (see Question 8.7) and the PKCS standard for the software industry 
  844. (see Question 8.9). The OSI Implementors' Workshop (OIW) has issued 
  845. implementers' agreements referring to PKCS and PEM, which each include RSA. 
  846.  
  847. A number of other standards are currently being developed and will 
  848. be announced over the next couple of years; many are expected to include 
  849. RSA as either an endorsed or a recommended system for privacy and/or 
  850. authentication. See [38] for a more comprehensive survey of cryptography 
  851. standards.
  852.  
  853.  
  854. 2.18 Is RSA a de facto standard? Why is a de facto standard important?
  855.  
  856. RSA is the most widely used public-key cryptosystem today and has often
  857. been called a de facto standard. Regardless of the official standards, the 
  858. existence of a de facto standard is extremely important for the development 
  859. of a digital economy. If one public-key system is used everywhere for 
  860. authentication, then signed digital documents can be exchanged between users 
  861. in different nations using different software on different platforms; this
  862. interoperability is necessary for a true digital economy to develop.
  863.  
  864. The lack of secure authentication has been a major obstacle in achieving
  865. the promise that computers would replace paper; paper is still necessary
  866. almost everywhere for contracts, checks, official letters, legal documents,
  867. and identification. With this core of necessary paper transaction, it has not 
  868. been feasible to evolve completely into a society based on electronic 
  869. transactions. Digital signatures are the exact tool necessary to convert 
  870. the most essential paper-based documents to digital electronic media. 
  871. Digital signatures makes it possible, for example, to have leases, wills, 
  872. passports, college transcripts, checks, and voter registration forms that 
  873. exist only in electronic form; any paper version would just be a ``copy'' 
  874. of the electronic original. All of this is enabled by an accepted standard 
  875. for digital signatures.
  876.  
  877. 2.19 Is RSA patented? 
  878.  
  879. RSA is patented under U.S. Patent 4,405,829, issued 9/20/83 and held by
  880. Public Key Partners (PKP), of Sunnyvale, California; the patent expires 17 
  881. years after issue, in 2000. RSA is usually licensed together with other 
  882. public-key cryptography patents (see Question 1.5). PKP has a standard, 
  883. royalty-based licensing policy which can be modified for special 
  884. circumstances. If a software vendor, having licensed the public-key patents, 
  885. incorporates RSA into a commercial product, then anyone who purchases the 
  886. end product has the legal right to use RSA within the context of that 
  887. software. The U.S. government can use RSA without a license because it was 
  888. invented at MIT with partial government funding. RSA is not patented outside 
  889. North America.
  890.  
  891. In North America, a license is needed to ``make, use or sell'' RSA. However,
  892. PKP usually allows free non-commercial use of RSA, with written permission, 
  893. for personal, academic or intellectual reasons. Furthermore, RSA 
  894. Laboratories has made available (in the U.S. and Canada) at no charge a 
  895. collection of cryptographic routines in source code, including the RSA 
  896. algorithm; it can be used, improved and redistributed non-commercially 
  897. (see Question 8.10).
  898.  
  899.  
  900. 2.20 Can RSA be exported from the U.S.?
  901.  
  902. Export of RSA falls under the same U.S. laws as all other cryptographic
  903. products. See Question 1.6 for details.
  904.  
  905. RSA used for authentication is more easily exported than when used for
  906. privacy. In the former case, export is allowed regardless of key (modulus)
  907. size, although the exporter must demonstrate that the product cannot be
  908. easily converted to use for encryption. In the case of RSA used for 
  909. privacy (encryption), the U.S. government generally does not allow
  910. export if the key size exceeds 512 bits. Export policy is currently a
  911. subject of debate, and the export status of RSA may well change in the
  912. next year or two.
  913.  
  914. Regardless of U.S. export policy, RSA is available abroad in non-U.S.
  915. products.
  916.  
  917.  
  918.  
  919. 3 Key Management 
  920.        3.1  What key management issues are involved in public-key 
  921.             cryptography? 
  922.        3.2  Who needs a key? 
  923.        3.3  How does one get a key pair? 
  924.        3.4  Should a public key or private key be shared among users? 
  925.        3.5  What are certificates? 
  926.        3.6  How are certificates used? 
  927.        3.7  Who issues certificates and how? 
  928.        3.8  What is a CSU, or, How do certifying authorities store their 
  929.             private keys? 
  930.        3.9  Are certifying authorities susceptible to attack? 
  931.        3.10  What if the certifying authority's key is lost or compromised? 
  932.        3.11  What are Certificate Revocation Lists (CRLs)? 
  933.        3.12  What happens when a key expires? 
  934.        3.13  What happens if I lose my private key? 
  935.        3.14  What happens if my private key is compromised? 
  936.        3.15  How should I store my private key? 
  937.        3.16  How do I find someone else's public key? 
  938.        3.17  How can signatures remain valid beyond the expiration dates of 
  939.              their keys, or, How do you verify a 20-year-old signature? 
  940.        3.18  What is a digital time-stamping service? 
  941.  
  942. 4 Factoring and Discrete Log 
  943.        4.1  What is a one-way function? 
  944.        4.2  What is the significance of one-way functions for cryptography? 
  945.        4.3  What is the factoring problem? 
  946.        4.4  What is the significance of factoring in cryptography? 
  947.        4.5  Has factoring been getting easier? 
  948.        4.6  What are the best factoring methods in use today? 
  949.        4.7  What are the prospects for theoretical factoring breakthroughs? 
  950.        4.8  What is the RSA Factoring Challenge? 
  951.        4.9  What is the discrete log problem? 
  952.        4.10  Which is easier, factoring or discrete log? 
  953.  
  954. 5 DES 
  955.        5.1  What is DES? 
  956.        5.2  Has DES been broken? 
  957.        5.3  How does one use DES securely? 
  958.        5.4  Can DES be exported from the U.S.? 
  959.        5.5  What are the alternatives to DES? 
  960.        5.6  Is DES a group? 
  961.  
  962.  
  963. --------------------------------------------------------------------
  964.  
  965.  
  966.  
  967. 3 Key Management
  968.  
  969. 3.1 What key management issues are involved in public-key cryptography?
  970.  
  971. Secure methods of key management are extremely important. In practice,
  972. most attacks on public-key systems will probably be aimed at the key 
  973. management levels, rather than at the cryptographic algorithm itself. 
  974. The key management issues mentioned here are discussed in detail in 
  975. later questions.
  976.  
  977. Users must be able to obtain securely a key pair suited to their efficiency 
  978. and security needs. There must be a way to look up other people's public 
  979. keys and to publicize one's own key. Users must have confidence in the 
  980. legitimacy of others' public keys; otherwise an intruder can either change 
  981. public keys listed in a directory, or impersonate another user. Certificates 
  982. are used for this purpose. Certificates must be unforgeable, obtainable in a 
  983. secure manner, and processed in such a way that an intruder cannot misuse 
  984. them. The issuance of certificates must proceed in a secure way, impervious 
  985. to attack. If someone's private key is lost or compromised, others must be 
  986. made aware of this, so that they will no longer encrypt messages under the 
  987. invalid public key nor accept messages signed with the invalid private key. 
  988. Users must be able to store their private keys securely, so that no intruder 
  989. can find it, yet the keys must be readily accessible for legitimate use. Keys 
  990. need to be valid only until a specified expiration date. The expiration date 
  991. must be chosen properly and publicized securely. Some documents need to have 
  992. verifiable signatures beyond the time when the key used to sign them has 
  993. expired.
  994.  
  995. Although most of these key management issues arise in any public-key 
  996. cryptosystem, for convenience they are discussed here in the context of RSA.
  997.  
  998.  
  999. 3.2 Who needs a key?
  1000.  
  1001. Anyone who wishes to sign messages or to receive encrypted messages must
  1002. have a key pair. People may have more than one key. For example, someone
  1003. might have a key affiliated with his or her work and a separate key for
  1004. personal use. Other entities will also have keys, including electronic 
  1005. entities such as modems, workstations, and printers, as well as 
  1006. organizational entities such as a corporate department, a hotel 
  1007. registration desk, or a university registrar's office. 
  1008.  
  1009.  
  1010. 3.3 How does one get a key pair? 
  1011.  
  1012. Each user should generate his or her own key pair. It may be tempting within 
  1013. an organization to have a single site that generates keys for all members who 
  1014. request one, but this is a security risk because it involves the transmission 
  1015. of private keys over a network as well as catastrophic consequences if an 
  1016. attacker infiltrates the key-generation site. Each node on a network should be
  1017. capable of local key generation, so that private keys are never transmitted 
  1018. and no external key source need be trusted. Of course, the local key generation
  1019. software must itself be trustworthy. Secret-key authentication systems, such 
  1020. as Kerberos, often do not allow local key generation but instead use a 
  1021. central server to generate keys.
  1022.  
  1023. Once generated, a user must register his or her public key with some
  1024. central administration, called a certifying authority. The certifying 
  1025. authority returns to the user a certificate attesting to the veracity of 
  1026. the user's public key along with other information (see Questions 3.5 
  1027. and following). Most users should not obtain more than one certificate for
  1028. the same key, in order to simplify various bookkeeping tasks associated
  1029. with the key.
  1030.  
  1031.  
  1032. 3.4 Should a public key or private key be shared among users?
  1033.  
  1034. In RSA, each person should have a unique modulus and private exponent, i.e., 
  1035. a unique private key. The public exponent, on the other hand, can be common 
  1036. to a group of users without security being compromised. Some public exponents 
  1037. in common use today are 3 and 2^{16}+1; because these numbers are small, 
  1038. the public-key operations (encryption and signature verification) are fast 
  1039. relative to the private key operations (decryption and signing). If one 
  1040. public exponent becomes a standard, software and hardware can be optimized 
  1041. for that value.
  1042.  
  1043. In public-key systems based on discrete logarithms, such as ElGamal,
  1044. Diffie-Hellman, or DSS, it has often been suggested that a group of 
  1045. people should share a modulus. This would make breaking a key more
  1046. attractive to an attacker, however, because one could break every
  1047. key with only slightly more effort than it would take to break a
  1048. single key. To an attacker, therefore, the average cost to break a 
  1049. key is much lower with a common modulus than if every key has a distinct 
  1050. modulus. Thus one should be very cautious about using a common modulus; 
  1051. if a common modulus is chosen, it should be very large. 
  1052.  
  1053.  
  1054. 3.5 What are certificates?
  1055.  
  1056. Certificates are digital documents attesting to the binding of a public key 
  1057. to an individual or other entity. They allow verification of the claim that 
  1058. a given public key does in fact belong to a given individual. Certificates 
  1059. help prevent someone from using a phony key to impersonate someone else.
  1060.  
  1061. In their simplest form, certificates contain a public key and a name. As
  1062. commonly used, they also contain the expiration date of the key, the name 
  1063. of the certifying authority that issued the certificate, the serial number 
  1064. of the certificate, and perhaps other information. Most importantly, it 
  1065. contains the digital signature of the certificate issuer. The most widely 
  1066. accepted format for certificates is defined by the CCITT X.509 international 
  1067. standard [19]; thus certificates can be read or written by any application 
  1068. complying with X.509. Further refinements are found in the PKCS set of 
  1069. standards (see Question 8.9), and the PEM standard (see Question 8.7). A 
  1070. detailed discussion of certificate format can also be found in Kent [40].
  1071.  
  1072. A certificate is issued by a certifying authority (see Question 3.7) 
  1073. and signed with the certifying authority's private key.
  1074.  
  1075.  
  1076. 3.6 How are certificates used?
  1077.  
  1078. A certificate is displayed in order to generate confidence in the 
  1079. legitimacy of a public key. Someone verifying a signature can also 
  1080. verify the signer's certificate, to insure that no forgery or false 
  1081. representation has occurred. These steps can be performed with greater 
  1082. or lesser rigor depending on the context. 
  1083.  
  1084. The most secure use of authentication involves enclosing one or more 
  1085. certificates with every signed message. The receiver of the message
  1086. would verify the certificate using the certifying authority's public
  1087. key and, now confident of the public key of the sender, verify the message's 
  1088. signature. There may be two or more certificates enclosed with the message, 
  1089. forming a hierarchical chain, wherein one certificate testifies to the 
  1090. authenticity of the previous certificate. At the end of a certificate 
  1091. hierarchy is a top-level certifying authority, which is trusted without a 
  1092. certificate from any other certifying authority. The public key of the 
  1093. top-level certifying authority must be independently known, for example by 
  1094. being widely published.
  1095.  
  1096. The more familiar the sender is to the receiver of the message, the less 
  1097. need there is to enclose, and to verify, certificates. If Alice sends 
  1098. messages to Bob every day, Alice can enclose a certificate chain on the 
  1099. first day, which Bob verifies. Bob thereafter stores Alice's public key 
  1100. and no more certificates or certificate verifications are necessary. A sender 
  1101. whose company is known to the receiver may need to enclose only one 
  1102. certificate (issued by the company), whereas a sender whose company is 
  1103. unknown to the receiver may need to enclose two certificates. A good rule of 
  1104. thumb is to enclose just enough of a certificate chain so that the issuer of 
  1105. the highest level certificate in the chain is well-known to the receiver.
  1106.  
  1107. According to the PKCS standards for public-key cryptography (see Question
  1108. 8.9), every signature points to a certificate that validates the public 
  1109. key of the signer. Specifically, each signature contains the name of the 
  1110. issuer of the certificate and the serial number of the certificate. Thus 
  1111. even if no certificates are enclosed with a message, a verifier can still 
  1112. use the certificate chain to check the status of the public key.
  1113.  
  1114.  
  1115. 3.7 Who issues certificates and how?
  1116.  
  1117. Certificates are issued by a certifying authority (CA), which can be any 
  1118. trusted central administration willing to vouch for the identities of those 
  1119. to whom it issues certificates. A company may issue certificates to its 
  1120. employees, a university to its students, a town to its citizens. In 
  1121. order to prevent forged certificates, the CA's public key must be trustworthy: 
  1122. a CA must either publicize its public key or provide a certificate from a 
  1123. higher-level CA attesting to the validity of its public key. The latter
  1124. solution gives rise to hierarchies of CAs.
  1125.  
  1126. Certificate issuance proceeds as follows. Alice generates her own key 
  1127. pair and sends the public key to an appropriate CA with some proof of her 
  1128. identification. The CA checks the identification and takes any other steps
  1129. necessary to assure itself that the request really did come from Alice, and 
  1130. then sends her a certificate attesting to the binding between Alice and her 
  1131. public key, along with a hierarchy of certificates verifying the CA's public 
  1132. key. Alice can present this certificate chain whenever desired in order to 
  1133. demonstrate the legitimacy of her public key. 
  1134.  
  1135. Since the CA must check for proper identification, organizations will find 
  1136. it convenient to act as a CA for its own members and employees. There will 
  1137. also be CAs that issue certificates to unaffiliated individuals.
  1138.  
  1139. Different CAs may issue certificates with varying levels of identification 
  1140. requirements. One CA may insist on seeing a driver's license, another may 
  1141. want the certificate request form to be notarized, yet another may want 
  1142. fingerprints of anyone requesting a certificate. Each CA should publish 
  1143. its own identification requirements and standards, so that verifiers 
  1144. can attach the appropriate level of confidence in the certified name-key 
  1145. bindings.
  1146.  
  1147. An example of a certificate-issuing protocol is Apple Computer's Open 
  1148. Collaborative Environment (OCE). Apple OCE users can generate a key 
  1149. pair and then request and receive a certificate for the public key; the
  1150. certificate request must be notarized.
  1151.  
  1152.  
  1153. 3.8 What is a CSU, or, How do certifying authorities store their private keys?
  1154.  
  1155. It is extremely important that private keys of certifying authorities are 
  1156. stored securely, because compromise would enable undetectable forgeries. 
  1157. One way to achieve the desired security is to store the key in a tamperproof
  1158. box; such a box is called a Certificate Signing Unit, or CSU. The CSU would, 
  1159. preferably, destroy its contents if ever opened, and be shielded against 
  1160. attacks using electromagnetic radiation. Not even employees of the certifying 
  1161. authority should have access to the private key itself, but only the ability 
  1162. to use the private key in the process of issuing certificates. 
  1163.  
  1164. There are many possible designs for CSUs; here is a description of one design
  1165. found in some current implementations. The CSU is activated by a set of data 
  1166. keys, which are physical keys capable of storing digital information. The 
  1167. data keys use secret-sharing technology such that several people must all 
  1168. use their data keys to activate the CSU. This prevents one disgruntled CA 
  1169. employee from producing phony certificates. 
  1170.  
  1171. Note that if the CSU is destroyed, say in a fire, no security is compromised.
  1172. Certificates signed by the CSU are still valid, as long as the verifier uses 
  1173. the correct public key. Some CSUs will be manufactured so that a lost private 
  1174. key can be restored into a new CSU. See Question 3.10 for discussion of 
  1175. lost CA private keys.
  1176.  
  1177. Bolt, Beranek, and Newman (BBN) currently sells a CSU, and RSA Data Security
  1178. sells a full-fledged certificate issuing system built around the BBN CSU.
  1179.  
  1180.  
  1181. 3.9 Are certifying authorities susceptible to attack?
  1182.  
  1183. One can think of many attacks aimed at the certifying authority, which must
  1184. be prepared against them.
  1185.  
  1186. Consider the following attack. Suppose Bob wishes to impersonate Alice. 
  1187. If Bob can convincingly sign messages as Alice, he can send a message to 
  1188. Alice's bank saying ``I wish to withdraw $10,000 from my account. Please 
  1189. send me the money.'' To carry out this attack, Bob generates a key pair and 
  1190. sends the public key to a certifying authority saying ``I'm Alice. Here is 
  1191. my public key. Please send me a certificate.'' If the CA is fooled and sends 
  1192. him such a certificate, he can then fool the bank, and his attack will 
  1193. succeed. In order to prevent such an attack the CA must verify that a 
  1194. certificate request did indeed come from its purported author, i.e., it must 
  1195. require sufficient evidence that it is actually Alice who is requesting the 
  1196. certificate. The CA may, for example, require Alice to appear in person and 
  1197. show a birth certificate. Some CAs may require very little identification, 
  1198. but the bank should not honor messages authenticated with such low-assurance 
  1199. certificates. Every CA must publicly state its identification requirements 
  1200. and policies; others can then attach an appropriate level of confidence to 
  1201. the certificates.
  1202.  
  1203. An attacker who discovers the private key of a certifying authority could 
  1204. then forge certificates. For this reason, a certifying authority must take 
  1205. extreme precautions to prevent illegitimate access to its private key. The 
  1206. private key should be kept in a high-security box, known as a Certificate 
  1207. Signing Unit, or CSU (see Question 3.8).
  1208.  
  1209. The certifying authority's public key might be the target of an extensive 
  1210. factoring attack. For this reason, CAs should use very long keys, preferably 
  1211. 1000 bits or longer, and should also change keys regularly. Top-level 
  1212. certifying authorities are exceptions: it may not be practical for them to 
  1213. change keys frequently because the key may be written into software used 
  1214. by a large number of verifiers.
  1215.  
  1216. In another attack, Alice bribes Bob, who works for the certifying authority, 
  1217. to issue to her a certificate in the name of Fred. Now Alice can send 
  1218. messages signed in Fred's name and anyone receiving such a message will 
  1219. believe it authentic because a full and verifiable certificate chain will 
  1220. accompany the message. This attack can be hindered by requiring the 
  1221. cooperation of two (or more) employees to generate a certificate; the 
  1222. attacker now has to bribe two employees rather than one. For example, in 
  1223. some of today's CSUs, three employees must each insert a data key containing 
  1224. secret information in order to authorize the CSU to generate certificates. 
  1225. Unfortunately, there may be other ways to generate a forged certificate by 
  1226. bribing only one employee. If each certificate request is checked by only 
  1227. one employee, that one employee can be bribed and slip a false request into 
  1228. a stack of real certificate requests. Note that a corrupt employee cannot 
  1229. reveal the certifying authority's private key, as long as it is properly 
  1230. stored.
  1231.  
  1232. Another attack involves forging old documents. Alice tries to factor the 
  1233. modulus of the certifying authority. It takes her 15 years, but she finally 
  1234. succeeds, and she now has the old private key of the certifying authority. 
  1235. The key has long since expired, but she can forge a certificate dated 15 
  1236. years ago attesting to a phony public key of some other person, say Bob; she 
  1237. can now forge a document with a signature of Bob dated 15 year ago, perhaps
  1238. a will leaving everything to Alice. The underlying issue raised by this 
  1239. attack is how to authenticate a signed document dated many years ago; this 
  1240. issue is discussed in Question 3.17.
  1241.  
  1242. Note that these attacks on certifying authorities do not threaten the 
  1243. privacy of messages between users, as might result from an attack on a 
  1244. secret-key distribution center.
  1245.  
  1246.  
  1247. 3.10 What if the certifying authority's key is lost or compromised? 
  1248.  
  1249. If the certifying authority's key is lost or destroyed but not compromised, 
  1250. certificates signed with the old key are still valid, as long as the verifier
  1251. knows to use the old public key to verify the certificate. 
  1252.  
  1253. In some CSU designs, encrypted backup copies of the CA's private key are
  1254. kept. A CA which loses its key can then restore it by loading the encrypted 
  1255. backup into the CSU, which can decrypt it using some unique information 
  1256. stored inside the CSU; the encrypted backup can only be decrypted using the 
  1257. CSU. If the CSU itself is destroyed, the manufacturer may be able to supply 
  1258. another with the same internal information, thus allowing recovery of the key. 
  1259.  
  1260. A compromised CA key is a much more dangerous situation. An attacker who 
  1261. discovers a certifying authority's private key can issue phony certificates 
  1262. in the name of the certifying authority, which would enable undetectable 
  1263. forgeries; for this reason, all precautions must be taken to prevent 
  1264. compromise, including those outlined in Questions 3.8 and 3.9. If a 
  1265. compromise does occur, the CA must immediately cease issuing certificates
  1266. under its old key and change to a new key. If it is suspected that some phony 
  1267. certificates were issued, all certificates should be recalled, and then 
  1268. reissued with a new CA key. These measures could be relaxed somewhat if 
  1269. certificates were registered with a digital time-stamping service (see 
  1270. Question 3.18). Note that compromise of a CA key does not invalidate users'
  1271. keys, but only the certificates that authenticate them. Compromise of a 
  1272. top-level CA's key should be considered catastrophic, since the key may 
  1273. be built into applications that verify certificates.
  1274.  
  1275.  
  1276. 3.11 What are Certificate Revocation Lists (CRLs)?
  1277.  
  1278. A Certificate Revocation List (CRL) is a list of public keys that have been 
  1279. revoked before their scheduled expiration date. There are several reasons why 
  1280. a key might need to be revoked and placed on a CRL. A key might have been 
  1281. compromised. A key might be used professionally by an individual for 
  1282. a company; for example, the official name associated with a key might be 
  1283. ``Alice Avery, Vice President, Argo Corp.'' If Alice were fired, her company 
  1284. would not want her to be able to sign messages with that key and therefore 
  1285. the company would place the key on the CRL. 
  1286.  
  1287. When verifying a signature, one can check the relevant CRL to make sure
  1288. the signer's key has not been revoked. Whether it is worth the time to 
  1289. perform this check depends on the importance of the signed document. 
  1290.  
  1291. CRLs are maintained by certifying authorities (CAs) and provide information 
  1292. about revoked keys originally certified by the CA. CRLs only list current 
  1293. keys, since expired keys should not be accepted in any case; when a revoked 
  1294. key is past its original expiration date it is removed from the CRL. Although 
  1295. CRLs are maintained in a distributed manner, there may be central 
  1296. repositories for CRLs, that is, sites on networks containing the latest CRLs 
  1297. from many organizations. An institution like a bank might want an in-house 
  1298. CRL repository to make CRL searches feasible on every transaction.
  1299.  
  1300.  
  1301. 3.12 What happens when a key expires?
  1302.  
  1303. In order to guard against a long-term factoring attack, every key must 
  1304. have an expiration date after which it is no longer valid. The time to 
  1305. expiration must therefore be much shorter than the expected factoring time, 
  1306. or equivalently, the key length must be long enough to make the chances of 
  1307. factoring before expiration extremely small. The validity period for a key 
  1308. pair may also depend on the circumstances in which the key will be used, 
  1309. although there will also be a standard period. The validity period, together
  1310. with the value of the key and the estimated strength of an expected attacker, 
  1311. then determines the appropriate key size.
  1312.  
  1313. The expiration date of a key accompanies the public key in a certificate
  1314. or a directory listing. The signature verification program should check 
  1315. for expiration and should not accept a message signed with an expired key. 
  1316. This means that when one's own key expires, everything signed with it will
  1317. no longer be considered valid. Of course, there will be cases where it is 
  1318. important that a signed document be considered valid for a much longer period 
  1319. of time; Question 3.17 discusses ways to achieve this.
  1320.  
  1321. After expiration, the user chooses a new key, which should be longer than 
  1322. the old key, perhaps by several digits, to reflect both the performance 
  1323. increase of computer hardware and any recent improvements in factoring 
  1324. algorithms. Recommended key length schedules will likely be published. A user 
  1325. may recertify a key that has expired, if it is sufficiently long and has not 
  1326. been compromised. The certifying authority would then issue a new certificate 
  1327. for the same key, and all new signatures would point to the new certificate 
  1328. instead of the old. However, the fact that computer hardware continues to 
  1329. improve argues for replacing expired keys with new, longer keys every few 
  1330. years. Key replacement enables one to take advantage of the hardware 
  1331. improvements to increase the security of the cryptosystem. Faster hardware 
  1332. has the effect of increasing security, perhaps vastly, but only if key 
  1333. lengths are increased regularly (see Question 4.5).
  1334.  
  1335.  
  1336. 3.13 What happens if I lose my private key?
  1337.  
  1338. If your private key is lost or destroyed, but not compromised, you can no 
  1339. longer sign or decrypt messages, but anything previously signed with the 
  1340. lost key is still valid. This can happen, for example, if you forget the 
  1341. password used to access your key, or if the disk on which the key is stored 
  1342. is damaged. You need to choose a new key right away, to minimize the number 
  1343. of messages people send you encrypted under your old key, messages which you 
  1344. can no longer read. 
  1345.  
  1346.  
  1347. 3.14 What happens if my private key is compromised?
  1348.  
  1349. If your private key is compromised, that is, if you suspect an attacker may 
  1350. have obtained your private key, then you must assume that some enemy can
  1351. read encrypted messages sent to you and forge your name on documents. The 
  1352. seriousness of these consequences underscores the importance of protecting 
  1353. your private key with extremely strong mechanisms (see Question 3.15).
  1354.  
  1355. You must immediately notify your certifying authority and have your old key 
  1356. placed on a Certificate Revocation List (see Question 3.11); this will 
  1357. inform people that the key has been revoked. Then choose a new key and obtain
  1358. the proper certificates for it. You may wish to use the new key to re-sign 
  1359. documents that you had signed with the compromised key; documents that had 
  1360. been time-stamped as well as signed might still be valid. You should also 
  1361. change the way you store your private key, to prevent compromise of the new 
  1362. key.
  1363.  
  1364.  
  1365. 3.15 How should I store my private key?
  1366.  
  1367. Private keys must be stored securely, since forgery and loss of privacy 
  1368. could result from compromise. The private key should never be stored 
  1369. anywhere in plaintext form. The simplest storage mechanism is to encrypt 
  1370. the private key under a password and store the result on a disk. Of course, 
  1371. the password itself must be maintained with high security, not written down 
  1372. and not easily guessed. Storing the encrypted key on a disk that is not 
  1373. accessible through a computer network, such as a floppy disk or a local 
  1374. hard disk, will make some attacks more difficult. Ultimately, private keys 
  1375. may be stored on portable hardware, such as a smart card. Furthermore, a 
  1376. challenge-response protocol will be more secure than simple password access. 
  1377. Users with extremely high security needs, such as certifying authorities, 
  1378. should use special hardware devices to protect their keys (see Question 
  1379. 3.8).
  1380.  
  1381.  
  1382. 3.16 How do I find someone else's public key?
  1383.  
  1384. Suppose you want to find Bob's public key. There are several possible ways.
  1385. You could call him up and ask him to send you his public key via e-mail; you 
  1386. could request it via e-mail as well. Certifying authorities may provide
  1387. directory services; if Bob works for company Z, look in the directory kept 
  1388. by Z's certifying authority. Directories must be secure against unauthorized 
  1389. tampering, so that users can be confident that a public key listed in the 
  1390. directory actually belongs to the person listed. Otherwise, you might send 
  1391. private encrypted information to the wrong person.
  1392.  
  1393. Eventually, full-fledged directories will arise, serving as online white or 
  1394. yellow pages. If they are compliant with CCITT X.509 standards [19], the 
  1395. directories will contain certificates as well as public keys; the presence 
  1396. of certificates will lower the directories' security needs.
  1397.  
  1398.  
  1399. 3.17 How can signatures remain valid beyond the expiration dates of their
  1400.     keys, or, How do you verify a 20-year-old signature?
  1401.  
  1402. Normally, a key expires after, say, two years and a document signed with an 
  1403. expired key should not be accepted. However, there are many cases where 
  1404. it is necessary for signed documents to be regarded as legally valid 
  1405. for much longer than two years; long-term leases and contracts are examples. 
  1406. How should these cases be handled? Many solutions have been suggested but 
  1407. it is unclear which will prove the best. Here are some possibilities.
  1408.  
  1409. One can have special long-term keys as well as the normal two-year keys. 
  1410. Long-term keys should have much longer modulus lengths and be stored 
  1411. more securely than two-year keys. If a long-term key expires in 50 
  1412. years, any document signed with it would remain valid within that time. 
  1413. A problem with this method is that any compromised key must remain on the 
  1414. relevant CRL until expiration (see Question 3.11); if 50-year keys are 
  1415. routinely placed on CRLs, the CRLs could grow in size to unmanageable 
  1416. proportions. This idea can be modified as follows. Register the long-term 
  1417. key by the normal procedure, i.e., for two years. At expiration time, if 
  1418. it has not been compromised, the key can be recertified, that is, issued 
  1419. a new certificate by the certifying authority, so that the key will be 
  1420. valid for another two years. Now a compromised key only needs to be kept 
  1421. on a CRL for at most two years, not fifty. 
  1422.  
  1423. One problem with the previous method is that someone might try to 
  1424. invalidate a long-term contract by refusing to renew his key. This 
  1425. problem can be circumvented by registering the contract with a digital 
  1426. time-stamping service (see Question 3.18) at the time it is originally 
  1427. signed. If all parties to the contract keep a copy of the time-stamp, 
  1428. then each can prove that the contract was signed with valid keys. In 
  1429. fact, the time-stamp can prove the validity of a contract even if one 
  1430. signer's key gets compromised at some point after the contract was 
  1431. signed. This time-stamping solution can work with all signed digital 
  1432. documents, not just multi-party contracts.
  1433.  
  1434.  
  1435. 3.18 What is a digital time-stamping service?
  1436.  
  1437. A digital time-stamping service (DTS) issues time-stamps which associate 
  1438. a date and time with a digital document in a cryptographically strong way. 
  1439. The digital time-stamp can be used at a later date to prove that an 
  1440. electronic document existed at the time stated on its time-stamp. For 
  1441. example, a physicist who has a brilliant idea can write about it with
  1442. a word processor and have the document time-stamped. The time-stamp and
  1443. document together can later prove that the scientist deserves the Nobel 
  1444. Prize, even though an arch rival may have been the first to publish.
  1445.  
  1446. Here's one way such a system could work. Suppose Alice signs a document 
  1447. and wants it time-stamped. She computes a message digest of the document 
  1448. using a secure hash function (see Question 8.2) and then sends the 
  1449. message digest (but not the document itself) to the DTS, which sends her in 
  1450. return a digital time-stamp consisting of the message digest, the date and 
  1451. time it was received at the DTS, and the signature of the DTS. Since the 
  1452. message digest does not reveal any information about the content of the 
  1453. document, the DTS cannot eavesdrop on the documents it time-stamps. Later, 
  1454. Alice can present the document and time-stamp together to prove when the
  1455. document was written. A verifier computes the message digest of the document, 
  1456. makes sure it matches the digest in the time-stamp, and then verifies the 
  1457. signature of the DTS on the time-stamp.
  1458.  
  1459. To be reliable, the time-stamps must not be forgeable. Consider the
  1460. requirements for a DTS of the type just described. First, the DTS itself 
  1461. must have a long key if we want the time-stamps to be reliable for, say,
  1462. several decades. Second, the private key of the DTS must be stored with 
  1463. utmost security, as in a tamperproof box. Third, the date and time must 
  1464. come from a clock, also inside the tamperproof box, which cannot be reset 
  1465. and which will keep accurate time for years or perhaps for decades. Fourth, 
  1466. it must be infeasible to create time-stamps without using the apparatus 
  1467. in the tamperproof box.
  1468.  
  1469. A cryptographically strong DTS using only software [4] has been 
  1470. implemented by Bellcore; it avoids many of the requirements just 
  1471. described, such as tamperproof hardware. The Bellcore DTS essentially 
  1472. combines hash values of documents into data structures called binary 
  1473. trees, whose ``root'' values are periodically published in the newspaper. 
  1474. A time-stamp consists of a set of hash values which allow a verifier 
  1475. to recompute the root of the tree. Since the hash functions are one-way 
  1476. (see Question 8.2), the set of validating hash values cannot be forged.
  1477. The time associated with the document by the time-stamp is the date of 
  1478. publication.
  1479.  
  1480. The use of a DTS would appear to be extremely important, if not essential, 
  1481. for maintaining the validity of documents over many years (see Question 
  1482. 3.17). Suppose a landlord and tenant sign a twenty-year lease. The public 
  1483. keys used to sign the lease will expire after, say, two years; solutions 
  1484. such as recertifying the keys or resigning every two years with new keys 
  1485. require the cooperation of both parties several years after the original 
  1486. signing. If one party becomes dissatisfied with the lease, he or she may 
  1487. refuse to cooperate. The solution is to register the lease with the DTS 
  1488. at the time of the original signing; both parties would then receive a 
  1489. copy of the time-stamp, which can be used years later to enforce the 
  1490. integrity of the original lease.
  1491.  
  1492. In the future, it is likely that a DTS will be used for everything
  1493. from long-term corporate contracts to personal diaries and letters.
  1494. Today, if an historian discovers some lost letters of Mark Twain, their
  1495. authenticity is checked by physical means. But a similar find 100 years
  1496. from now may consist of an author's computer files; digital time-stamps 
  1497. may be the only way to authenticate the find.
  1498.  
  1499. 4 Factoring and Discrete Log
  1500.  
  1501. 4.1 What is a one-way function?
  1502.  
  1503. A one-way function is a mathematical function that is significantly
  1504. easier to perform in one direction (the forward direction) than in the 
  1505. opposite direction (the inverse direction). One might, for example, 
  1506. compute the function in minutes but only be able to compute the inverse 
  1507. in months or years. A trap-door one-way function is a one-way function
  1508. where the inverse direction is easy if you know a certain piece of
  1509. information (the trap door), but difficult otherwise.
  1510.  
  1511.  
  1512. 4.2 What is the significance of one-way functions for cryptography?
  1513.  
  1514. Public-key cryptosystems are based on (presumed) trap-door one-way 
  1515. functions. The public key gives information about the particular instance 
  1516. of the function; the private key gives information about the trap door. 
  1517. Whoever knows the trap door can perform the function easily in both
  1518. directions, but anyone lacking the trap door can perform the function only 
  1519. in the forward direction. The forward direction is used for encryption and 
  1520. signature verification; the inverse direction is used for decryption and 
  1521. signature generation.
  1522.  
  1523. In almost all public-key systems, the size of the key corresponds to the 
  1524. size of the inputs to the one-way function; the larger the key, the greater
  1525. the difference between the efforts necessary to compute the function in the 
  1526. forward and inverse directions (for someone lacking the trap door). For a 
  1527. digital signature to be secure for years, for example, it is necessary to 
  1528. use a trap-door one-way function with inputs large enough that someone 
  1529. without the trap door would need many years to compute the inverse function.
  1530.  
  1531. All practical public-key cryptosystems are based on functions that are 
  1532. believed to be one-way, but have not been proven to be so. This means that 
  1533. it is theoretically possible that an algorithm will be discovered that can 
  1534. compute the inverse function easily without a trap door; this development 
  1535. would render any cryptosystem based on that one-way function insecure and 
  1536. useless. 
  1537.  
  1538.  
  1539. 4.3 What is the factoring problem?
  1540.  
  1541. Factoring is the act of splitting an integer into a set of smaller integers
  1542. (factors) which, when multiplied together, form the original integer. 
  1543. For example, the factors of 15 are 3 and 5; the factoring problem is 
  1544. to find 3 and 5 when given 15. Prime factorization requires splitting an 
  1545. integer into factors that are prime numbers; every integer has a unique 
  1546. prime factorization. Multiplying two prime integers together is easy, but 
  1547. as far as we know, factoring the product is much more difficult. 
  1548.  
  1549. 4.4 What is the significance of factoring in cryptography?
  1550.  
  1551. Factoring is the underlying, presumably hard problem upon which several 
  1552. public-key cryptosystems are based, including RSA. Factoring an RSA
  1553. modulus (see Question 2.1) would allow an attacker to figure out 
  1554. the private key; thus, anyone who can factor the modulus can decrypt 
  1555. messages and forge signatures. The security of RSA therefore depends on 
  1556. the factoring problem being difficult. Unfortunately, it has not been 
  1557. proven that factoring must be difficult, and there remains a possibility 
  1558. that a quick and easy factoring method might be discovered (see Question 
  1559. 4.7), although factoring researchers consider this possibility remote.
  1560.  
  1561. Factoring large numbers takes more time than factoring smaller numbers.
  1562. This is why the size of the modulus in RSA determines how secure an 
  1563. actual use of RSA is; the larger the modulus, the longer it would take
  1564. an attacker to factor, and thus the more resistant to attack the RSA
  1565. implementation is.
  1566.  
  1567.  
  1568. 4.5 Has factoring been getting easier?
  1569.  
  1570. Factoring has become easier over the last fifteen years for two reasons:
  1571. computer hardware has become more powerful, and better factoring algorithms 
  1572. have been developed. 
  1573.  
  1574. Hardware improvement will continue inexorably, but it is important to 
  1575. realize that hardware improvements make RSA more secure, not less.
  1576. This is because a hardware improvement that allows an attacker to factor
  1577. a number two digits longer than before will at the same time allow 
  1578. a legitimate RSA user to use a key dozens of digits longer than before; 
  1579. a user can choose a new key a dozen digits longer than the old one without
  1580. any performance slowdown, yet a factoring attack will become much more
  1581. difficult. Thus although the hardware improvement does help the attacker, 
  1582. it helps the legitimate user much more. This general rule may fail in the 
  1583. sense that factoring may take place using fast machines of the future, 
  1584. attacking RSA keys of the past; in this scenario, only the attacker gets 
  1585. the advantage of the hardware improvement. This consideration argues for 
  1586. using a larger key size today than one might otherwise consider warranted. 
  1587. It also argues for replacing one's RSA key with a longer key every few 
  1588. years, in order to take advantage of the extra security offered by hardware 
  1589. improvements. This point holds for other public-key systems as well.
  1590.  
  1591. Better factoring algorithms have been more help to the RSA attacker than have 
  1592. hardware improvements. As the RSA system, and cryptography in general, have 
  1593. attracted much attention, so has the factoring problem, and many researchers 
  1594. have found new factoring methods or improved upon others. This has made 
  1595. factoring easier, for numbers of any size and irrespective of the speed of 
  1596. the hardware. However, factoring is still a very difficult problem.
  1597.  
  1598. Overall, any recent decrease in security due to algorithm improvement can 
  1599. be offset by increasing the key size. In fact, between general computer 
  1600. hardware improvements and special-purpose RSA hardware improvements, 
  1601. increases in key size (maintaining a constant speed of RSA operations) have 
  1602. kept pace or exceeded increases in algorithm efficiency, resulting in no net 
  1603. loss of security. As long as hardware continues to improve at a faster rate 
  1604. than that at which the complexity of factoring algorithms decreases, the 
  1605. security of RSA will increase, assuming RSA users regularly increase their 
  1606. key size by appropriate amounts. The open question is how much faster 
  1607. factoring algorithms can get; there must be some intrinsic limit to 
  1608. factoring speed, but this limit remains unknown.
  1609.  
  1610.  
  1611. 4.6 What are the best factoring methods in use today?
  1612.  
  1613. Factoring is a very active field of research among mathematicians and
  1614. computer scientists; the best factoring algorithms are mentioned below 
  1615. with some references and their big-O asymptotic efficiency. O notation 
  1616. measures how fast an algorithm is; it gives an upper bound on the number 
  1617. of operations (to order of magnitude) in terms of n, the number to be 
  1618. factored, and p, a prime factor of n. For textbook treatment of 
  1619. factoring algorithms, see [41], [42], [47],
  1620. and [11]; for a detailed explanation of 
  1621. big-O notation, see [22].
  1622.  
  1623. Factoring algorithms come in two flavors, special purpose and general
  1624. purpose; the efficiency of the former depends on the unknown factors, 
  1625. whereas the efficiency of the latter depends on the number to be factored. 
  1626. Special purpose algorithms are best for factoring numbers with small 
  1627. factors, but the numbers used for the modulus in the RSA system do not 
  1628. have any small factors. Therefore, general purpose factoring algorithms 
  1629. are the more important ones in the context of cryptographic systems and 
  1630. their security. 
  1631.  
  1632. Special purpose factoring algorithms include the Pollard rho method [66], 
  1633. with expected running time O(sqrt(p)), and the Pollard p-1 method [67], 
  1634. with running time O(p'), where p' is the largest prime factor of p-1. Both 
  1635. of these take an amount of time that is exponential in the size of p, the 
  1636. prime factor that they find; thus these algorithms are too slow for most 
  1637. factoring jobs. The elliptic curve method (ECM) [50] is superior to these; 
  1638. its asymptotic running time is O(exp (sqrt (2 ln p ln ln p)) ). The ECM is 
  1639. often used in practice to find factors of randomly generated numbers; it is 
  1640. not strong enough to factor a large RSA modulus.
  1641.  
  1642. The best general purpose factoring algorithm today is the number field 
  1643. sieve [16], which runs in time approximately O(exp ( 1.9 (ln n)^{1/3} 
  1644. (ln ln n)^{2/3}) ). It has only recently been implemented [15], and is 
  1645. not yet practical enough to perform the most desired factorizations. 
  1646. Instead, the most widely used general purpose algorithm is the multiple 
  1647. polynomial quadratic sieve (mpqs) [77], which has running time 
  1648. O(exp ( sqrt (ln n ln ln n)) ). The mpqs (and some of its variations) 
  1649. is the only general purpose algorithm that has successfully factored 
  1650. numbers greater than 110 digits; a variation known as ppmpqs [49]
  1651. has been particularly popular.
  1652.  
  1653. It is expected that within a few years the number field sieve will overtake 
  1654. the mpqs as the most widely used factoring algorithm, as the size of the 
  1655. numbers being factored increases from about 120 digits, which is the current 
  1656. threshold of general numbers which can be factored, to 130 or 140 digits. A 
  1657. ``general number'' is one with no special form that might make it easier to 
  1658. factor; an RSA modulus is a general number. Note that a 512-bit number has 
  1659. about 155 digits. 
  1660.  
  1661. Numbers that have a special form can already be factored up to 155 digits 
  1662. or more [48]. The Cunningham Project [14] keeps track of the factorizations 
  1663. of numbers with these special forms and maintains a ``10 Most Wanted'' list 
  1664. of desired factorizations. Also, a good way to survey current factoring 
  1665. capability is to look at recent results of the RSA Factoring Challenge 
  1666. (see Question 4.8).
  1667.  
  1668.  
  1669. 4.7 What are the prospects for theoretical factoring breakthroughs?
  1670.  
  1671. Although factoring is strongly believed to be a difficult mathematical
  1672. problem, it has not been proved so. Therefore there remains a possibility 
  1673. that an easy factoring algorithm will be discovered. This development, which 
  1674. could seriously weaken RSA, would be highly surprising and the possibility 
  1675. is considered extremely remote by the researchers most actively engaged in 
  1676. factoring research. 
  1677.  
  1678. Another possibility is that someone will prove that factoring is difficult.
  1679. This negative breakthrough is probably more likely than the positive 
  1680. breakthrough discussed above, but would also be unexpected at the current 
  1681. state of theoretical factoring research. This development would guarantee 
  1682. the security of RSA beyond a certain key size.
  1683.  
  1684.  
  1685. 4.8 What is the RSA Factoring Challenge?
  1686.  
  1687. RSA Data Security Inc. (RSADSI) administers a factoring contest with 
  1688. quarterly cash prizes. Those who factor numbers listed by RSADSI earn
  1689. points toward the prizes; factoring smaller numbers earns more points than
  1690. factoring larger numbers. Results of the contest may be useful to those who 
  1691. wish to know the state of the art in factoring; the results show the size 
  1692. of numbers factored, which algorithms are used, and how much time was 
  1693. required to factor each number. Send e-mail to challenge-info@rsa.com 
  1694. for information. 
  1695.  
  1696.  
  1697. 4.9 What is the discrete log problem?
  1698.  
  1699. The discrete log problem, in its most common formulation, is to find
  1700. the exponent x in the formula y=g^x mod p; in other words, it seeks to 
  1701. answer the question, To what power must g be raised in order to obtain 
  1702. y, modulo the prime number p? There are other, more general, formulations 
  1703. as well.
  1704.  
  1705. Like the factoring problem, the discrete log problem is believed to be
  1706. difficult and also to be the hard direction of a one-way function. For 
  1707. this reason, it has been the basis of several public-key cryptosystems,
  1708. including the ElGamal system and DSS (see Questions 2.15 and 6.8). The 
  1709. discrete log problem bears the same relation to these systems as factoring 
  1710. does to RSA: the security of these systems rests on the assumption that 
  1711. discrete logs are difficult to compute.
  1712.  
  1713. The discrete log problem has received much attention in recent years; 
  1714. descriptions of some of the most efficient algorithms can be found in 
  1715. [47], [21], and [33]. The best discrete log problems have expected 
  1716. running times similar to that of the best factoring algorithms. Rivest 
  1717. [72] has analyzed the expected time to solve discrete log both in terms 
  1718. of computing power and money.
  1719.  
  1720.  
  1721. 4.10 Which is easier, factoring or discrete log?
  1722.  
  1723. The asymptotic running time of the best discrete log algorithm is
  1724. approximately the same as for the best general purpose factoring
  1725. algorithm. Therefore, it requires about as much effort to solve
  1726. the discrete log problem modulo a 512-bit prime as to factor a 
  1727. 512-bit RSA modulus.  One paper [45] cites experimental evidence 
  1728. that the discrete log problem is slightly harder than factoring: 
  1729. the authors suggest that the effort necessary to factor a 110-digit 
  1730. integer is the same as the effort to solve discrete logarithms modulo 
  1731. a 100-digit prime. This difference is so slight that it should not 
  1732. be a significant consideration when choosing a cryptosystem.
  1733.  
  1734. Historically, it has been the case that an algorithmic advance in either 
  1735. problem, factoring or discrete logs, was then applied to the other. This 
  1736. suggests that the degrees of difficulty of both problems are closely 
  1737. linked, and that any breakthrough, either positive or negative, will affect 
  1738. both problems equally.
  1739.  
  1740.  
  1741. 5 DES
  1742.  
  1743. 5.1 What is DES?
  1744.  
  1745. DES is the Data Encryption Standard, an encryption block cipher defined 
  1746. and endorsed by the U.S. government in 1977 as an official standard;
  1747. the details can be found in the official FIPS publication [59]. It was 
  1748. originally developed at IBM. DES has been extensively studied over the 
  1749. last 15 years and is the most well-known and widely used cryptosystem 
  1750. in the world. 
  1751.  
  1752. DES is a secret-key, symmetric cryptosystem: when used for communication,
  1753. both sender and receiver must know the same secret key, which is used both
  1754. to encrypt and decrypt the message. DES can also be used for single-user
  1755. encryption, such as to store files on a hard disk in encrypted form. In
  1756. a multi-user environment, secure key distribution may be difficult; 
  1757. public-key cryptography was invented to solve this problem (see Question 
  1758. 1.3). DES operates on 64-bit blocks with a 56-bit key. It was designed to 
  1759. be implemented in hardware, and its operation is relatively fast. It works
  1760. well for bulk encryption, that is, for encrypting a large set of data. 
  1761.  
  1762. NIST (see Question 7.1) has recertified DES as an official U.S. government 
  1763. encryption standard every five years; DES was last recertified in 1993, 
  1764. by default. NIST has indicated, however, that it may not recertify DES 
  1765. again.
  1766.  
  1767.  
  1768. 5.2 Has DES been broken?
  1769.  
  1770. DES has never been ``broken'', despite the efforts of many researchers 
  1771. over many years. The obvious method of attack is brute-force exhaustive 
  1772. search of the key space; this takes 2^{55} steps on average. Early on 
  1773. it was suggested [28] that a rich and powerful enemy could build a 
  1774. special-purpose computer capable of breaking DES by exhaustive search 
  1775. in a reasonable amount of time. Later, Hellman [36] showed a time-memory 
  1776. trade-off that allows improvement over exhaustive search if memory space 
  1777. is plentiful, after an exhaustive precomputation. These ideas fostered 
  1778. doubts about the security of DES. There were also accusations that the 
  1779. NSA had intentionally weakened DES. Despite these suspicions, no feasible 
  1780. way to break DES faster than exhaustive search was discovered. The cost 
  1781. of a specialized computer to perform exhaustive search has been estimated 
  1782. by Wiener at one million dollars [80]. 
  1783.  
  1784. Just recently, however, the first attack on DES that is better than 
  1785. exhaustive search was announced by Eli Biham and Adi Shamir [6,7],
  1786. using a new technique known as differential cryptanalysis. This attack 
  1787. requires encryption of 2^{47} chosen plaintexts, i.e., plaintexts chosen 
  1788. by the attacker. Although a theoretical breakthrough, this attack is 
  1789. not practical under normal circumstances because it requires the attacker 
  1790. to have easy access to the DES device in order to encrypt the chosen 
  1791. plaintexts. Another attack, known as linear cryptanalysis [51], does not 
  1792. require chosen plaintexts.
  1793.  
  1794. The consensus is that DES, when used properly, is secure against all but
  1795. the most powerful enemies. In fact, triple encryption DES (see Question 
  1796. 5.3) may be secure against anyone at all. Biham and Shamir have stated 
  1797. that they consider DES secure. It is used extensively in a wide variety 
  1798. of cryptographic systems, and in fact, most implementations of public-key 
  1799. cryptography include DES at some level. 
  1800.  
  1801.  
  1802. 5.3 How does one use DES securely?
  1803.  
  1804. When using DES, there are several practical considerations that can
  1805. affect the security of the encrypted data. One should change DES keys 
  1806. frequently, in order to prevent attacks that require sustained data 
  1807. analysis. In a communications context, one must also find a secure way 
  1808. of communicating the DES key to both sender and receiver. Use of RSA or 
  1809. some other public-key technique for key management solves both these 
  1810. issues: a different DES key is generated for each session, and secure 
  1811. key management is provided by encrypting the DES key with the receiver's 
  1812. RSA public key. RSA, in this circumstance, can be regarded as a tool for 
  1813. improving the security of DES (or any other secret key cipher).
  1814.  
  1815. If one wishes to use DES to encrypt files stored on a hard disk, it is
  1816. not feasible to frequently change the DES keys, as this would entail 
  1817. decrypting and then re-encrypting all files upon each key change. Instead,
  1818. one should have a master DES key with which one encrypts the list of DES
  1819. keys used to encrypt the files; one can then change the master key 
  1820. frequently without much effort.
  1821.  
  1822. A powerful technique for improving the security of DES is triple encryption, 
  1823. that is, encrypting each message block under three different DES keys in 
  1824. succession. Triple encryption is thought to be equivalent to doubling the 
  1825. key size of DES, to 112 bits, and should prevent decryption by an enemy 
  1826. capable of single-key exhaustive search [53]. Of course, using 
  1827. triple-encryption takes three times as long as single-encryption DES.
  1828.  
  1829. Aside from the issues mentioned above, DES can be used for encryption in 
  1830. several officially defined modes. Some are more secure than others. ECB 
  1831. (electronic codebook) mode simply encrypts each 64-bit block of plaintext 
  1832. one after another under the same 56-bit DES key. In CBC (cipher block 
  1833. chaining) mode, each 64-bit plaintext block is XORed with the previous 
  1834. ciphertext block before being encrypted with the DES key. Thus the encryption 
  1835. of each block depends on previous blocks and the same 64-bit plaintext 
  1836. block can encrypt to different ciphertext depending on its context in the 
  1837. overall message. CBC mode helps protect against certain attacks, although 
  1838. not against exhaustive search or differential cryptanalysis. CFB (cipher 
  1839. feedback) mode allows one to use DES with block lengths less than 64 bits. 
  1840. Detailed descriptions of the various DES modes can be found in [60].
  1841.  
  1842. In practice, CBC is the most widely used mode of DES, and is specified in 
  1843. several standards. For additional security, one could use triple encryption 
  1844. with CBC, but since single DES in CBC mode is usually considered secure 
  1845. enough, triple encryption is not often used.
  1846.  
  1847.  
  1848. 5.4 Can DES be exported from the U.S.?
  1849.  
  1850. Export of DES, either in hardware or software, is strictly regulated by 
  1851. the U.S. State Department and the NSA (see Question 1.6). The government 
  1852. rarely approves export of DES, despite the fact that DES is widely 
  1853. available overseas; financial institutions and foreign subsidiaries of 
  1854. U.S. companies are exceptions. 
  1855.  
  1856.  
  1857. 5.5 What are the alternatives to DES?
  1858.  
  1859. Over the years, various bulk encryption algorithms have been designed as 
  1860. alternatives to DES. One is FEAL (Fast Encryption ALgorithm), a cipher for 
  1861. which attacks have been discovered [6], although new versions have been 
  1862. proposed. Another recently proposed cipher designed by Lai and Massey 
  1863. [44] and known as IDEA seems promising, although it has not yet received 
  1864. sufficient scrutiny to instill full confidence in its security. The U.S. 
  1865. government recently announced a new algorithm called Skipjack (see Question 
  1866. 6.5) as part of its Capstone project. Skipjack operates on 64-bit blocks of 
  1867. data, as does DES, but uses 80-bit keys, as opposed to 56-bit keys in DES. 
  1868. However, the details of Skipjack are classified, so Skipjack is only 
  1869. available in hardware from government-authorized manufacturers.
  1870.  
  1871. Rivest has developed the ciphers RC2 and RC4 (see Question 8.6), which can 
  1872. be made as secure as necessary because they use variable key sizes. Faster 
  1873. than DES, at least in software, they have the further advantage of special 
  1874. U.S. government status whereby the export approval is simplified and 
  1875. expedited if the key size is limited to 40 bits. 
  1876.  
  1877.  
  1878. 5.6 Is DES a group?
  1879.  
  1880. It has been frequently asked whether DES encryption is closed under
  1881. composition; i.e., is encrypting a plaintext under one DES key and
  1882. then encrypting the result under another key always equivalent to a 
  1883. single encryption under a single key? Algebraically, is DES a group?
  1884. If so, then DES might be weaker than would otherwise be the case; see 
  1885. [39] for a more complete discussion. However, the answer is no, DES 
  1886. is not a group [18]; this issue was settled only recently, after many 
  1887. years of speculation and circumstantial evidence. This result seems to 
  1888. imply that techniques such as triple encryption do in fact increase 
  1889. the security of DES.
  1890.  
  1891.  
  1892. 6 Capstone, Clipper, and DSS 
  1893.        6.1  What is Capstone? 
  1894.        6.2  What is Clipper? 
  1895.        6.3  How does the Clipper chip work? 
  1896.        6.4  Who are the escrow agencies? 
  1897.        6.5  What is Skipjack? 
  1898.        6.6  Why is Clipper controversial? 
  1899.        6.7  What is the current status of Clipper? 
  1900.        6.8  What is DSS? 
  1901.        6.9  Is DSS secure? 
  1902.        6.10  Is use of DSS covered by any patents? 
  1903.        6.11  What is the current status of DSS? 
  1904.  
  1905. 7 NIST and NSA 
  1906.        7.1  What is NIST? 
  1907.        7.2  What role does NIST play in cryptography? 
  1908.        7.3  What is the NSA? 
  1909.        7.4  What role does the NSA play in commercial cryptography? 
  1910.  
  1911. 8 Miscellaneous 
  1912.        8.1  What is the legal status of documents signed with digital 
  1913.             signatures? 
  1914.        8.2  What is a hash function? What is a message digest? 
  1915.        8.3  What are MD2, MD4 and MD5? 
  1916.        8.4  What is SHS? 
  1917.        8.5  What is Kerberos? 
  1918.        8.6  What are RC2 and RC4? 
  1919.        8.7  What is PEM? 
  1920.        8.8  What is RIPEM? 
  1921.        8.9  What is PKCS? 
  1922.        8.10  What is RSAREF? 
  1923.  
  1924. --------------------------------------------------------------------
  1925.  
  1926.  
  1927. 6 Capstone, Clipper, and DSS
  1928.  
  1929. 6.1 What is Capstone?
  1930.  
  1931. Capstone is the U.S. government's long-term project to develop a set
  1932. of standards for publicly-available cryptography, as authorized by 
  1933. the Computer Security Act of 1987. The primary agencies responsible 
  1934. for Capstone are NIST and the NSA (see Section 7). The plan calls for 
  1935. the elements of Capstone to become official U.S. government standards, 
  1936. in which case both the government itself and all private companies doing 
  1937. business with the government would be required to use Capstone.
  1938.  
  1939. There are four major components of Capstone: a bulk data encryption
  1940. algorithm, a digital signature algorithm, a key exchange protocol, and
  1941. a hash function. The data encryption algorithm is called Skipjack (see 
  1942. Question 6.5), but is often referred to as Clipper, which is the 
  1943. encryption chip that includes Skipjack (see Question 6.2). The digital 
  1944. signature algorithm is DSS (see Question 6.8) and the hash function is 
  1945. SHS (see Question 8.4 about SHS and Question 8.2 about hash functions). 
  1946. The key exchange protocol has not yet been announced. 
  1947.  
  1948. All the parts of Capstone have 80-bit security: all the keys involved
  1949. are 80 bits long and other aspects are also designed to withstand 
  1950. anything less than an ``80-bit'' attack, that is, an effort of 2^{80} 
  1951. operations. Eventually the government plans to place the entire Capstone 
  1952. cryptographic system on a single chip.
  1953.  
  1954.  
  1955. 6.2 What is Clipper?
  1956.  
  1957. Clipper is an encryption chip developed and sponsored by the U.S. 
  1958. government as part of the Capstone project (see Question 6.1).
  1959. Announced by the White House in April, 1993 [65], Clipper was designed 
  1960. to balance the competing concerns of federal law-enforcement agencies 
  1961. with those of private citizens and industry. The law-enforcement 
  1962. agencies wish to have access to the communications of suspected 
  1963. criminals, for example by wire-tapping; these needs are threatened by 
  1964. secure cryptography. Industry and individual citizens, however, want 
  1965. secure communications, and look to cryptography to provide it.
  1966.  
  1967. Clipper technology attempts to balance these needs by using escrowed
  1968. keys. The idea is that communications would be encrypted with a 
  1969. secure algorithm, but the keys would be kept by one or more third 
  1970. parties (the ``escrow agencies''), and made available to law-enforcement 
  1971. agencies when authorized by a court-issued warrant. Thus, for 
  1972. example, personal communications would be impervious to recreational 
  1973. eavesdroppers, and commercial communications would be impervious to 
  1974. industrial espionage, and yet the FBI could listen in on suspected 
  1975. terrorists or gangsters. 
  1976.  
  1977. Clipper has been proposed as a U.S. government standard [62]; it would 
  1978. then be used by anyone doing business with the federal government as well 
  1979. as for communications within the government. For anyone else, use of 
  1980. Clipper is strictly voluntary. AT&T has announced a secure telephone 
  1981. that uses the Clipper chip.
  1982.  
  1983.  
  1984. 6.3 How does the Clipper chip work?
  1985.  
  1986. The Clipper chip contains an encryption algorithm called Skipjack (see
  1987. Question 6.5}), whose details have not been made public. Each chip 
  1988. also contains a unique 80-bit unit key U, which is escrowed in two parts 
  1989. at two escrow agencies; both parts must be known in order to recover the 
  1990. key. Also present is a serial number and an 80-bit ``family key'' F; the 
  1991. latter is common to all Clipper chips. The chip is manufactured so that it 
  1992. cannot be reverse engineered; this means that the Skipjack algorithm and 
  1993. the keys cannot be read off the chip.
  1994.  
  1995. When two devices wish to communicate, they first agree on an 80-bit
  1996. ``session key'' K. The method by which they choose this key is left
  1997. up to the implementer's discretion; a public-key method such as RSA or
  1998. Diffie-Hellman seems a likely choice. The message is encrypted with
  1999. the key K and sent; note that the key K is not escrowed. In addition 
  2000. to the encrypted message, another piece of data, called the law-enforcement 
  2001. access field (LEAF), is created and sent. It includes the session key K 
  2002. encrypted with the unit key U, then concatenated with the serial number 
  2003. of the sender and an authentication string, and then, finally, all encrypted 
  2004. with the family key. The exact details of the law-enforcement field are 
  2005. classified.
  2006.  
  2007. The receiver decrypts the law-enforcement field, checks the authentication
  2008. string, and decrypts the message with the key K. 
  2009.  
  2010. Now suppose a law-enforcement agency wishes to tap the line. It uses the
  2011. family key to decrypt the law-enforcement field; the agency now knows the
  2012. serial number and has an encrypted version of the session key. It presents
  2013. an authorization warrant to the two escrow agencies along with the serial
  2014. number. The escrow agencies give the two parts of the unit key to the
  2015. law-enforcement agency, which then decrypts to obtain the session key K.
  2016. Now the agency can use K to decrypt the actual message.
  2017.  
  2018. Further details on the Clipper chip operation, such as the generation
  2019. of the unit key, are sketched by Denning [26].
  2020.  
  2021.  
  2022. 6.4 Who are the escrow agencies?
  2023.  
  2024. It has not yet been decided which organizations will serve as the escrow
  2025. agencies, that is, keep the Clipper chip keys. No law-enforcement agency
  2026. will be an escrow agency, and it is possible that at least one of the
  2027. escrow agencies will be an organization outside the government.
  2028.  
  2029. It is essential that the escrow agencies keep the key databases
  2030. extremely secure, since unauthorized access to both escrow 
  2031. databases could allow unauthorized eavesdropping on private
  2032. communications. In fact, the escrow agencies are likely to be one
  2033. of the major targets for anyone trying to compromise the Clipper
  2034. system; the Clipper chip factory is another likely target.
  2035.  
  2036.  
  2037. 6.5 What is Skipjack?
  2038.  
  2039. Skipjack is the encryption algorithm contained in the Clipper chip; it was 
  2040. designed by the NSA. It uses an 80-bit key to encrypt 64-bit blocks of data; 
  2041. the same key is used for the decryption. Skipjack can be used in the same 
  2042. modes as DES (see Question 5.3), and may be more secure than DES, since
  2043. it uses 80-bit keys and scrambles the data for 32 steps, or ``rounds''; by
  2044. contrast, DES uses 56-bit keys and scrambles the data for only 16 rounds.
  2045.  
  2046. The details of Skipjack are classified. The decision not to make the details 
  2047. of the algorithm publicly available has been widely criticized. Many people 
  2048. are suspicious that Skipjack is not secure, either due to oversight by its 
  2049. designers, or by the deliberate introduction of a secret trapdoor. By contrast,
  2050. there have been many attempts to find weaknesses in DES over the years, since 
  2051. its details are public. These numerous attempts (and the fact that they have 
  2052. failed) have made people confident in the security of DES. Since Skipjack is
  2053. not public, the same scrutiny cannot be applied towards it, and thus a 
  2054. corresponding level of confidence may not arise. 
  2055.  
  2056. Aware of such criticism, the government invited a small group of independent 
  2057. cryptographers to examine the Skipjack algorithm. They issued a report 
  2058. [12] which stated that, although their study was too limited to reach a 
  2059. definitive conclusion, they nevertheless believe that Skipjack is secure.
  2060.  
  2061. Another consequence of Skipjack's classified status is that it cannot
  2062. be implemented in software, but only in hardware by government-authorized
  2063. chip manufacturers.
  2064.  
  2065.  
  2066. 6.6 Why is Clipper controversial?
  2067.  
  2068. The Clipper chip proposal has aroused much controversy and has been the
  2069. subject of much criticism. Unfortunately two distinct issues have become 
  2070. confused in the large volume of public comment and discussion. 
  2071.  
  2072. First there is controversy about the whole idea of escrowed keys.
  2073. Those in favor of escrowed keys see it as a way to provide secure 
  2074. communications for the public at large while allowing law-enforcement 
  2075. agencies to monitor the communications of suspected criminals. Those
  2076. opposed to escrowed keys see it as an unnecessary and ineffective
  2077. intrusion of the government into the private lives of citizens. They
  2078. argue that escrowed keys infringe their rights of privacy and free
  2079. speech. It will take a lot of time and much public discussion for society
  2080. to reach a consensus on what role, if any, escrowed keys should have.
  2081.  
  2082. The second area of controversy concerns various objections to the
  2083. specific Clipper proposal, that is, objections to this particular
  2084. implementation of escrowed keys, as opposed to the idea of escrowed
  2085. keys in general. Common objections include: the Skipjack algorithm
  2086. is not public (see Questions 6.5) and may not be secure; the key 
  2087. escrow agencies will be vulnerable to attack; there are not enough
  2088. key escrow agencies; the keys on the Clipper chips are not generated
  2089. in a sufficiently secure fashion; there will not be sufficient 
  2090. competition among implementers, resulting in expensive and slow chips;
  2091. software implementations are not possible; and the key size is fixed
  2092. and cannot be increased if necessary.
  2093.  
  2094. Micali [55] has recently proposed an alternative system that also 
  2095. attempts to balance the privacy concerns of law-abiding citizens with 
  2096. the investigative concerns of law-enforcement agencies. Called fair 
  2097. public-key cryptography, it is similar in function and purpose to the 
  2098. Clipper chip proposal but users can choose their own keys, which they 
  2099. register with the escrow agencies. Also, the system does not require 
  2100. secure hardware, and can be implemented completely in software.
  2101.  
  2102.  
  2103. 6.7 What is the current status of Clipper?
  2104.  
  2105. Clipper is under review. Both the executive branch and Congress are
  2106. considering it, and an advisory panel recently recommended a full
  2107. year-long public discussion of cryptography policy. NIST has invited 
  2108. the public to send comments, as part of its own review.
  2109.  
  2110.  
  2111. 6.8 What is DSS?
  2112.  
  2113. DSS is the proposed Digital Signature Standard, which specifies a 
  2114. Digital Signature Algorithm (DSA), and is a part of the U.S. government's
  2115. Capstone project (see Question 6.1). It was selected by NIST, 
  2116. in cooperation with the NSA (see Section 7), to be the digital 
  2117. authentication standard of the U.S. government; whether the government 
  2118. should in fact adopt it as the official standard is still 
  2119. under debate. 
  2120.  
  2121. DSS is based on the discrete log problem (see Question 4.9) and derives 
  2122. from cryptosystems proposed by Schnorr [75] and ElGamal [30]. It is for 
  2123. authentication only. For a detailed description of DSS, see [63] or [57].
  2124.  
  2125. DSS has, for the most part, been looked upon unfavorably by the computer 
  2126. industry, much of which had hoped the government would choose the RSA 
  2127. algorithm as the official standard; RSA is the most widely used 
  2128. authentication algorithm. Several articles in the press, such as [54], 
  2129. discuss the industry dissatisfaction with DSS. Criticism of DSS has 
  2130. focused on a few main issues: it lacks key exchange capability; the 
  2131. underlying cryptosystem is too recent and has been subject to too little 
  2132. scrutiny for users to be confident of its strength; verification of 
  2133. signatures with DSS is too slow; the existence of a second authentication 
  2134. standard will cause hardship to computer hardware and software vendors, who 
  2135. have already standardized on RSA; and that the process by which NIST chose 
  2136. DSS was too secretive and arbitrary, with too much influence wielded by NSA. 
  2137. Other criticisms were addressed by NIST by modifying the original proposal. 
  2138. A more detailed discussion of the various criticisms can be found in 
  2139. [57], and a detailed response by NIST can be found in [78].
  2140.  
  2141. In the DSS system, signature generation is faster than signature 
  2142. verification, whereas in the RSA system, signature verification is 
  2143. faster than signature generation (if the public and private exponents 
  2144. are chosen for this property, which is the usual case). NIST claims 
  2145. that it is an advantage of DSS that signing is faster, but many people 
  2146. in cryptography think that it is better for verification to be the 
  2147. faster operation. 
  2148.  
  2149.  
  2150. 6.9 Is DSS secure?
  2151.  
  2152. The most serious criticisms of DSS involve its security. DSS was originally 
  2153. proposed with a fixed 512-bit key size. After much criticism that this is 
  2154. not secure enough, NIST revised DSS to allow key sizes up to 1024 bits. More 
  2155. critical, however, is the fact that DSS has not been around long enough to 
  2156. withstand repeated attempts to break it; although the discrete log problem 
  2157. is old, the particular form of the problem used in DSS was first proposed 
  2158. for cryptographic use in 1989 by Schnorr [75] and has not received much 
  2159. public study. In general, any new cryptosystem could have serious flaws 
  2160. that are only discovered after years of scrutiny by cryptographers. Indeed 
  2161. this has happened many times in the past; see [13] for some detailed 
  2162. examples. RSA has withstood over 15 years of vigorous examination for 
  2163. weaknesses. In the absence of mathematical proofs of security, nothing 
  2164. builds confidence in a cryptosystem like sustained attempts to crack it. 
  2165. Although DSS may well turn out to be a strong cryptosystem, its relatively 
  2166. short history will leave doubts for years to come.
  2167.  
  2168. Some researchers warned about the existence of ``trapdoor'' primes in
  2169. DSS, which could enable a key to be easily broken. These trapdoor primes
  2170. are relatively rare however, and are easily avoided if proper key
  2171. generation procedures are followed [78].
  2172.  
  2173.  
  2174. 6.10 Is use of DSS covered by any patents?
  2175.  
  2176. NIST has filed a patent application for DSS and there have been claims that 
  2177. DSS is covered by other public-key patents. NIST recently announced its 
  2178. intention to grant exclusive sublicensing rights for the DSS patent to Public 
  2179. Key Partners (PKP), which also holds the sublicensing rights to other patents 
  2180. that may cover DSS (see Question 1.5). In the agreement between NIST and 
  2181. PKP, PKP publicly stated uniform guidelines by which it will grant licenses 
  2182. to practice DSS. PKP stated that DSS can be used on a royalty-free basis 
  2183. in the case of personal, noncommercial, or U.S. government use. See [61] 
  2184. for details on the agreement and the licensing policy.
  2185.  
  2186.  
  2187. 6.11 What is the current status of DSS?
  2188.  
  2189. After NIST issued the DSS proposal in August 1991, there was a period 
  2190. in which comments from the public were solicited; NIST then revised its
  2191. proposal in light of the comments. DSS may be issued as a FIPS and become 
  2192. the official U.S. government standard, but it is not clear when this 
  2193. might happen. DSS is currently in the process of becoming a standard, 
  2194. along with RSA, for the financial services industry; a recent draft 
  2195. standard [1] contains the revised version of DSS.
  2196.  
  2197.  
  2198. 7 NIST and NSA
  2199.  
  2200. 7.1 What is NIST?
  2201. NIST is an acronym for the National Institute of Standards and Technology,
  2202. a division of the U.S. Department of Commerce; it was formerly known as
  2203. the National Bureau of Standards (NBS). Through its Computer Systems
  2204. Laboratory it aims to promote open systems and interoperability that
  2205. will spur development of computer-based economic activity. NIST issues
  2206. standards and guidelines that it hopes will be adopted by all computer
  2207. systems in the U.S., and also sponsors workshops and seminars. Official 
  2208. standards are published as FIPS (Federal Information Processing Standards) 
  2209. publications.
  2210.  
  2211. In 1987 Congress passed the Computer Security Act, which authorized NIST 
  2212. to develop standards for ensuring the security of sensitive but unclassified 
  2213. information in government computer systems. It encouraged NIST to work with 
  2214. other government agencies and private industry in evaluating proposed 
  2215. computer security standards.
  2216.  
  2217.  
  2218. 7.2 What role does NIST play in cryptography?
  2219.  
  2220. NIST issues standards for cryptographic routines; U.S. government agencies
  2221. are required to use them, and the private sector often adopts them as well.
  2222. In January 1977, NIST declared DES (see Question 5.1) the official U.S. 
  2223. encryption standard and published it as FIPS Publication 46; DES soon 
  2224. became a de facto standard throughout the U.S.
  2225.  
  2226. A few years ago, NIST was asked to choose a set of cryptographic standards
  2227. for the U.S.; this has become known as the Capstone project (see Section 
  2228. 6). After a few years of rather secretive deliberations, and in cooperation 
  2229. with the NSA, NIST issued proposals for various standards in cryptography, 
  2230. including digital signatures (DSS) and data encryption (the Clipper chip); 
  2231. these are pieces of the overall Capstone project.
  2232.  
  2233. NIST has been criticized for allowing the NSA too much power in setting 
  2234. cryptographic standards, since the interests of the NSA conflict with that 
  2235. of the Commerce Department and NIST. Yet, the NSA has much more experience
  2236. with cryptography, and many more qualified cryptographers and cryptanalysts,
  2237. than does NIST; it would be unrealistic to expect NIST to forego such 
  2238. available assistance.
  2239.  
  2240.  
  2241. 7.3 What is the NSA?
  2242.  
  2243. The NSA is the National Security Agency, a highly secretive agency of the 
  2244. U.S. government that was created by Harry Truman in 1952; its very existence 
  2245. was kept secret for many years. For a history of the NSA, see Bamford [2].
  2246. The NSA has a mandate to listen to and decode all foreign communications of 
  2247. interest to the security of the United States. It has also used its power 
  2248. in various ways (see Question 7.4) to slow the spread of publicly available 
  2249. cryptography, in order to prevent national enemies from employing encryption 
  2250. methods too strong for the NSA to break.
  2251.  
  2252. As the premier cryptographic government agency, the NSA has huge financial 
  2253. and computer resources and employs a host of cryptographers. Developments in 
  2254. cryptography achieved at the NSA are not made public; this secrecy has led to 
  2255. many rumors about the NSA's ability to break popular cryptosystems like DES 
  2256. and also to rumors that the NSA has secretly placed weaknesses, called trap 
  2257. doors, in government-endorsed cryptosystems, such as DES. These rumors have 
  2258. never been proved or disproved, and the criteria used by the NSA in selecting 
  2259. cryptography standards have never been made public. 
  2260.  
  2261. Recent advances in the computer and telecommunications industries have 
  2262. placed NSA actions under unprecedented scrutiny, and the agency has become 
  2263. the target of heavy criticism for hindering U.S. industries that wish to use 
  2264. or sell strong cryptographic tools. The two main reasons for this increased 
  2265. criticism are the collapse of the Soviet Union and the development and 
  2266. spread of commercially available public-key cryptographic tools. Under 
  2267. pressure, the NSA may be forced to change its policies.
  2268.  
  2269.  
  2270. 7.4 What role does the NSA play in commercial cryptography?
  2271.  
  2272. The NSA's charter limits its activities to foreign intelligence. However,
  2273. the NSA is concerned with the development of commercial cryptography
  2274. because the availability of strong encryption tools through commercial 
  2275. channels could impede the NSA's mission of decoding international 
  2276. communications; in other words, the NSA is worried lest strong commercial 
  2277. cryptography fall into the wrong hands. 
  2278.  
  2279. The NSA has stated that it has no objection to the use of secure cryptography
  2280. by U.S. industry. It also has no objection to cryptographic tools used for
  2281. authentication, as opposed to privacy. However, the NSA is widely viewed as
  2282. following policies that have the practical effect of limiting and/or weakening
  2283. the cryptographic tools used by law-abiding U.S. citizens and corporations;
  2284. see Barlow [3] for a discussion of NSA's effect on commercial 
  2285. cryptography.
  2286.  
  2287. The NSA exerts influence over commercial cryptography in several ways. 
  2288. First, it controls the export of cryptography from the U.S. (see Question 
  2289. 1.6); the NSA generally does not approve export of products used for 
  2290. encryption unless the key size is strictly limited. It does, however,
  2291. approve for export any products used for authentication only, no matter 
  2292. how large the key size, so long as the product cannot be converted to be
  2293. used for encryption. The NSA has also blocked encryption methods from being 
  2294. published or patented, citing a national security threat; see Landau [46] 
  2295. for a discussion of this practice. Additionally, the NSA serves an 
  2296. ``advisory'' role to NIST in the evaluation and selection of official U.S. 
  2297. government computer security standards; in this capacity, it has played a 
  2298. prominent, and controversial, role in the selection of DES and in the 
  2299. development of the group of standards known as the Capstone project (see 
  2300. Section 6), which includes DSS and the Clipper chip. The NSA can also 
  2301. exert market pressure on U.S. companies to produce (or refrain from 
  2302. producing) cryptographic goods, since the NSA itself is often a large 
  2303. customer of these companies.
  2304.  
  2305. Cryptography is in the public eye as never before and has become the subject
  2306. of national public debate. The status of cryptography, and the NSA's role
  2307. in it, will probably change over the next few years.
  2308.  
  2309.  
  2310. 8 Miscellaneous
  2311.  
  2312. 8.1 What is the legal status of documents signed with digital signatures?
  2313.  
  2314. If digital signatures are to replace handwritten signatures they must have 
  2315. the same legal status as handwritten signatures, i.e., documents signed 
  2316. with digital signatures must be legally binding. NIST has stated that its 
  2317. proposed Digital Signature Standard (see Question 6.8) should be capable 
  2318. of ``proving to a third party that data was actually signed by the 
  2319. generator of the signature.'' Furthermore, U.S. federal government
  2320. purchase orders will be signed by any such standard; this implies that
  2321. the government will support the legal authority of digital signatures
  2322. in the courts. Some preliminary legal research has also resulted in the
  2323. opinion that digital signatures would meet the requirements of legally
  2324. binding signatures for most purposes, including commercial use as defined 
  2325. in the Uniform Commercial Code (UCC). A GAO (Government Accounting
  2326. Office) decision requested by NIST also opines that digital signatures
  2327. will meet the legal standards of handwritten signatures [20].
  2328.  
  2329. However, since the validity of documents with digital signatures has never 
  2330. been challenged in court, their legal status is not yet well-defined.
  2331. Through such challenges, the courts will issue rulings that collectively 
  2332. define which digital signature methods, key sizes, and security precautions 
  2333. are acceptable for a digital signature to be legally binding.
  2334.  
  2335. Digital signatures have the potential to possess greater legal authority
  2336. than handwritten signatures. If a ten-page contract is signed by hand on
  2337. the tenth page, one cannot be sure that the first nine pages have not
  2338. been altered. If the contract was signed by digital signatures, however, 
  2339. a third party can verify that not one byte of the contract has been altered.
  2340.  
  2341. Currently, if two people wish to digitally sign a series of contracts, 
  2342. they may wish to first sign a paper contract in which they agree to be bound 
  2343. in the future by any contracts digitally signed by them with a given 
  2344. signature method and minimum key size.
  2345.  
  2346.  
  2347. 8.2 What is a hash function? What is a message digest?
  2348.  
  2349. A hash function is a computation that takes a variable-size input and returns
  2350. a fixed-size string, which is called the hash value. If the hash function
  2351. is one-way, i.e., hard to invert, it is also called a message-digest function,
  2352. and the result is called a message digest. The idea is that a digest 
  2353. represents concisely the longer message or document from which it was 
  2354. computed; one can think of a message digest as a ``digital fingerprint'' of 
  2355. the larger document. Examples of well-known hash functions are MD4, MD5, 
  2356. and SHS (see Questions 8.3 and 8.4).
  2357.  
  2358. Although hash functions in general have many uses in computer programs, in 
  2359. cryptography they are used to generate a small string (the message digest) 
  2360. that can represent securely a much larger string, such as a file or message. 
  2361. Since the hash functions are faster than the signing functions, it is much 
  2362. more efficient to compute a digital signature using a document's message 
  2363. digest, which is small, than using the arbitrarily large document itself. 
  2364. Additionally, a digest can be made public without revealing the contents of 
  2365. the document from which it derives. This is important in digital 
  2366. time-stamping, where, using hash functions, one can get a document 
  2367. time-stamped without revealing its contents to the time-stamping service 
  2368. (see Question 3.18). 
  2369.  
  2370. A hash function used for digital authentication must have certain 
  2371. properties that make it secure enough for cryptographic use. Specifically,  
  2372. it must be infeasible to find a message that hashes to a given value
  2373. and it must be infeasible to find two distinct messages that hash to 
  2374. the same value. The ability to find a message hashing to a given value
  2375. would enable an attacker to substitute a fake message for a real message
  2376. that was signed. It would also enable someone to falsely disown a 
  2377. message by claiming that he or she actually signed a different message 
  2378. hashing to the same value, thus violating the non-repudiation property
  2379. of digital signatures. The ability to find two distinct messages hashing 
  2380. to the same value could enable an attack whereby someone is tricked into 
  2381. signing a message which hashes to the same value as another message with 
  2382. a quite different meaning. The digest must therefore be long enough to 
  2383. prevent an attacker from doing an exhaustive search for a collision. For 
  2384. example, if a hash function produces 100-bit strings, exhaustive search 
  2385. would take 2^{100} attempts on average to match a given value, and 
  2386. approximately 2^{50} attempts on average to find two inputs producing 
  2387. the same digest. 
  2388.  
  2389. A digital signature system can be broken by attacking either the difficult
  2390. mathematical problem on which the signature method is based or the hash 
  2391. function used to create the message digests. When choosing an authentication 
  2392. system, it is generally a good idea to choose a signature method and a hash 
  2393. function that require comparable efforts to break; any extra security in one 
  2394. of the two components is wasted, since attacks will be directed at the weaker 
  2395. component. Actually, attacking the hash function is harder in practice, since 
  2396. it requires a large amount of memory and the ability to trick the victim into 
  2397. signing a special message. With 2^{64} operations, an attacker can find two 
  2398. messages that hash to the same digest under any of the MD hash functions; 
  2399. this effort is comparable to that necessary to break 512-bit RSA; thus MD5 is 
  2400. a good choice when using RSA with a 512-bit modulus. However, those with 
  2401. greater security needs, such as certifying authorities, should use a longer 
  2402. modulus and a hash function that produces a longer message digest; either SHS 
  2403. (160-bit digest) or a modified version of MD4 that produces a 256-bit digest 
  2404. [71] would suffice.
  2405.  
  2406.  
  2407. 8.3 What are MD2, MD4 and MD5?
  2408.  
  2409. MD2, MD4 and MD5 (MD stands for Message Digest) are widely used hash 
  2410. functions designed by Ron Rivest specifically for cryptographic use.
  2411. They produce 128-bit digests and there is no known attack faster than 
  2412. exhaustive search.
  2413.  
  2414. MD2 is the slowest of the three; MD4 [71] is the fastest. MD5 [73]
  2415. has been dubbed ``MD4 with safety belts'' by Rivest, since it has a 
  2416. more conservative design than MD4; the design gives it increased 
  2417. security against attack, but at a cost of being approximately 33% 
  2418. slower than MD4. MD5 is the most commonly used of the three algorithms. 
  2419. MD4 and MD5 are publicly available for unrestricted use; MD2 is available
  2420. for use with PEM (see Question 8.7). Details of MD2, MD4, and MD5 with 
  2421. sample C code are available in Internet RFCs (Requests For Comments) 
  2422. 1319, 1320, and 1321, respectively. 
  2423.  
  2424. No feasible attacks on any of the MD algorithms have been discovered, 
  2425. although some recent theoretical work has found some interesting
  2426. structural properties [24,25].
  2427.  
  2428.  
  2429. 8.4 What is SHS?
  2430.  
  2431. The Secure Hash Standard (SHS) [58] is a hash function proposed by NIST 
  2432. (see Question 7.1) and adopted as a U.S. government standard. It is 
  2433. designed for use with the proposed Digital Signature Standard (see 
  2434. Question 6.8) and is part of the government's Capstone project (see 
  2435. Question 6.1}). SHS produces a 160-bit hash value from a variable-size 
  2436. input. SHS is structurally similar to MD4 and MD5. It is roughly 25% 
  2437. slower than MD5 but may be more secure, because it produces message 
  2438. digests that are 25% longer than those produced by the MD functions. 
  2439. SHS is currently the only part of Capstone that has been officially 
  2440. adopted as a government standard.
  2441.  
  2442.  
  2443. 8.5 What is Kerberos?
  2444.  
  2445. Kerberos is a secret-key network authentication system developed at MIT
  2446. [79]; it uses DES for encryption and authentication. Unlike a public-key 
  2447. authentication system, it does not produce digital signatures: Kerberos 
  2448. was designed to authenticate requests for network resources rather than 
  2449. to authenticate authorship of documents. Kerberos provides real-time 
  2450. authentication in a distributed environment, but does not provide for 
  2451. future third-party verification of documents.
  2452.  
  2453. In a Kerberos system, there is a designated site on the network, called 
  2454. the Kerberos server, which performs centralized key management and 
  2455. administrative functions. The server maintains a database containing the 
  2456. secret keys of all users, generates session keys whenever two users wish to 
  2457. communicate securely, and authenticates the identity of a user who requests 
  2458. certain network services. 
  2459.  
  2460. Kerberos, like other secret-key systems, requires trust in a third party, 
  2461. in this case the Kerberos server. If the server were compromised, the 
  2462. integrity of the whole system would fall. Public-key cryptography was 
  2463. designed precisely to avoid the necessity to trust third parties or 
  2464. communication lines (see Question 1.4). Kerberos may be adequate 
  2465. for those who do not need the more robust functions and properties of 
  2466. public-key systems. 
  2467.  
  2468.  
  2469. 8.6 What are RC2 and RC4?
  2470.  
  2471. RC2 and RC4 are variable-key-size cipher functions designed by Ron Rivest 
  2472. for fast bulk encryption. They are alternatives to DES (see Question
  2473. 5.1) and are as fast or faster than DES. They can be more secure than 
  2474. DES because of their ability to use long key sizes; they can also be less 
  2475. secure than DES if short key sizes are used.
  2476.  
  2477. RC2 is a variable-key-size symmetric block cipher and can serve as a drop-in
  2478. replacement for DES, for example in export versions of products otherwise
  2479. using DES. RC2 can be used in the same modes as DES (see Question 5.3), 
  2480. including triple encryption. RC2 is approximately twice as fast as DES, 
  2481. at least in software. RC4 is a variable-key-size symmetric stream cipher 
  2482. and is 10 or more times as fast as DES in software. Both RC2 and RC4 are 
  2483. very compact in terms of code size. 
  2484.  
  2485. An agreement between the Software Publishers Association (SPA) and the U.S. 
  2486. government gives RC2 and RC4 special status by means of which the export 
  2487. approval process is simpler and quicker than the usual cryptographic export 
  2488. process. However, to qualify for quick export approval a product must limit 
  2489. the RC2 and RC4 key sizes to 40 bits; 56 bits is allowed for foreign 
  2490. subsidiaries and overseas offices of U.S. companies. An additional 40-bit 
  2491. string, called a salt, can be used to thwart attackers who try to 
  2492. precompute a large look-up table of possible encryptions. The salt is 
  2493. appended to the encryption key, and this lengthened key is used to encrypt 
  2494. the message; the salt is then sent, unencrypted, with the message. RC2 and 
  2495. RC4 have been widely used by developers who want to export their products; 
  2496. DES is almost never approved for export. RC2 and RC4 are proprietary 
  2497. algorithms of RSA Data Security, Inc.; details have not been published.
  2498.  
  2499.  
  2500. 8.7 What is PEM?
  2501.  
  2502. PEM is the Internet Privacy-Enhanced Mail standard, designed, proposed, but 
  2503. not yet officially adopted, by the Internet Activities Board in order to 
  2504. provide secure electronic mail over the Internet. Designed to work with 
  2505. current Internet e-mail formats, PEM includes encryption, authentication, 
  2506. and key management, and allows use of both public-key and secret-key 
  2507. cryptosystems. Multiple cryptographic tools are supported: for each mail 
  2508. message, the specific encryption algorithm, digital signature algorithm, 
  2509. hash function, and so on are specified in the header. PEM explicitly 
  2510. supports only a few cryptographic algorithms; others may be added later. 
  2511. DES in CBC mode is currently the only message encryption algorithm supported, 
  2512. and both RSA and DES are supported for the key management. PEM also supports 
  2513. the use of certificates, endorsing the CCITT X.509 standard for certificate 
  2514. structure. 
  2515.  
  2516. The details of PEM can be found in Internet RFCs (Requests For Comments) 
  2517. 1421 through 1424. PEM is likely to be officially adopted by the Internet 
  2518. Activities Board within one year. Trusted Information Systems has developed
  2519. a free non-commercial implementation of PEM, and other implementations should 
  2520. soon be available as well.
  2521.  
  2522.  
  2523. 8.8 What is RIPEM?
  2524.  
  2525. RIPEM is a program developed by Mark Riordan that enables secure Internet 
  2526. e-mail; it provides both encryption and digital signatures, using RSA and 
  2527. DES routines from RSAREF (see Question 8.10). RIPEM is not fully 
  2528. PEM-compatible; for example, it does not currently support certificates. 
  2529. However, future versions will include certificates and will be fully 
  2530. compliant with the PEM standard. RIPEM is available free for non-commercial 
  2531. use in the U.S. and Canada. To get RIPEM, obtain an ftp account at 
  2532. ripem.msu.edu.
  2533.  
  2534.  
  2535. 8.9 What is PKCS?
  2536.  
  2537. PKCS (Public-Key Cryptography Standards) is a set of standards for 
  2538. implementation of public-key cryptography. It has been issued by RSA 
  2539. Data Security, Inc. in cooperation with a computer industry consortium, 
  2540. including Apple, Microsoft, DEC, Lotus, Sun and MIT. PKCS has been cited 
  2541. by the OIW (OSI Implementors' Workshop) as a method for implementation of 
  2542. OSI standards. PKCS is compatible with PEM (see Question 8.7) but extends 
  2543. beyond PEM. For example, where PEM can only handle ASCII data, PKCS is 
  2544. designed for binary data as well. PKCS is also compatible with the CCITT 
  2545. X.509 standard.
  2546.  
  2547. PKCS includes both algorithm-specific and algorithm-independent 
  2548. implementation standards. Specific algorithms supported include RSA, DES, 
  2549. and Diffie-Hellman key exchange. It also defines algorithm-independent syntax 
  2550. for digital signatures, digital envelopes (for encryption), and certificates; 
  2551. this enables someone implementing any cryptographic algorithm whatsoever to 
  2552. conform to a standard syntax and thus preserve interoperability. Documents 
  2553. detailing the PKCS standards can be obtained by sending e-mail to 
  2554. pkcs@rsa.com or by anonymous ftp to rsa.com.
  2555.  
  2556.  
  2557. 8.10 What is RSAREF?
  2558.  
  2559. RSAREF is a collection of cryptographic routines in portable C source code,
  2560. available at no charge from RSA Laboratories, a division of RSA Data Security,
  2561. Inc. It includes RSA, MD2, MD5, and DES; Diffie-Hellman key exchange will 
  2562. be included in a forthcoming version. It includes both low-level 
  2563. subroutines, such as modular exponentiation, and high-level cryptographic 
  2564. functions, such as verification of digital signatures. The arithmetic routines 
  2565. can handle multiple-precision integers, and the RSA algorithm routines can 
  2566. handle variable key sizes. RSAREF is fully compatible with the PEM and PKCS
  2567. standards.
  2568.  
  2569. RSAREF is available to citizens of the U.S. or Canada and to permanent 
  2570. residents of the U.S. It can be used in personal, non-commercial applications 
  2571. but cannot be used commercially or sent outside the U.S. and Canada. The 
  2572. RSAREF license contains more details on the usage allowed and disallowed. 
  2573. RSAREF is available on the Internet by sending e-mail to 
  2574. rsaref@rsa.com or by ftp to rsa.com.
  2575.  
  2576.  
  2577. 9 Acknowledgements
  2578.  
  2579. I would like to thank the following people, who have provided information 
  2580. and helpful suggestions: Burt Kaliski, Jim Bidzos, Matt Robshaw, Steve Dusse, 
  2581. Kurt Stammberger, George Parsons, John Gilmore, Stuart Haber, Dorothy 
  2582. Denning, and Dennis Branstad. 
  2583.  
  2584.  
  2585. BIBLIOGRAPHY
  2586.  
  2587. 1. American National Standards Institute. Working Draft: American National 
  2588.    Standard X9.30-199X: Public Key Cryptography Using Irreversible 
  2589.    Algorithms for the Financial Services Industry: Part 1: The Digital 
  2590.    Signature Algorithm (DSA). American Bankers Association, Washington, 
  2591.    D.C., March 4, 1993.
  2592.  
  2593. 2. J. Bamford. The Puzzle Palace. Houghton Mifflin, Boston, 1982.
  2594.  
  2595. 3. J.P. Barlow. Decrypting the puzzle palace. Communications of the ACM, 
  2596.    35(7):25--31, July 1992.
  2597.  
  2598. 4. D. Bayer, S. Haber, and W.S. Stornetta. Improving the efficiency and 
  2599.    reliablility of digital time-stamping. In R.M. Capocelli, editor, 
  2600.    Sequences '91: Methods in Communication, Security, and Computer Science, 
  2601.    Springer-Verlag, Berlin, 1992.
  2602.  
  2603. 5. P. Beauchemin, G. Brassard, C. Crepeau, C. Goutier, and C. Pomerance. The 
  2604.    generation of random numbers that are probably prime. J. of Cryptology, 
  2605.    1:53--64, 1988.
  2606.  
  2607. 6. E. Biham and A. Shamir. Differential Cryptanalysis of the Data Encryption 
  2608.    Standard. Springer-Verlag, New York, 1993.
  2609.  
  2610. 7. E. Biham and A. Shamir. Differential cryptanalysis of the full 16-round 
  2611.    DES. In Advances in Cryptology --- Crypto '92, Springer-Verlag, New York, 
  2612.    1993.
  2613.  
  2614. 8. M. Blum and S. Goldwasser. An efficient probabilistic public-key 
  2615.    encryption scheme which hides all partial information. In Advances in 
  2616.    Cryptology --- Crypto '84, pages 289--299, Springer-Verlag, New York, 
  2617.    1985.
  2618.  
  2619. 9. J. Brandt and I. Damgard. On generation of probable primes by incremental 
  2620.    search. In Advances in Cryptology --- Crypto '92, Springer-Verlag, New 
  2621.    York, 1993.
  2622.  
  2623. 10. G. Brassard. Modern Cryptology. Volume 325 of Lecture Notes in Computer 
  2624.     Science, Springer-Verlag, Berlin, 1988.
  2625.  
  2626. 11. D.M. Bressoud. Factorization and Primality Testing. Undergraduate Texts 
  2627.     in Mathematics, Springer-Verlag, New York, 1989.
  2628.  
  2629. 12. E.F. Brickell, D.E. Denning, S.T. Kent, D.P. Maher, and W. Tuchman. 
  2630.     Skipjack Review, Interim Report: The Skipjack Algorithm. July 28, 1993.
  2631.  
  2632. 13. E.F. Brickell and A.M. Odlyzko. Cryptanalysis: A survey of recent 
  2633.     results. Proceedings of the IEEE, 76:578--593, 1988.
  2634.  
  2635. 14. J. Brillhart, D.H. Lehmer, J.L. Selfridge, B. Tuckerman, and S.S. 
  2636.     Wagstaff Jr. Factorizations of b^n +/- 1, b=2,3,5,6,7,10,11,12 up to 
  2637.     High Powers. Volume 22 of Contemporary Mathematics, American 
  2638.     Mathematical Society, Providence, Rhode Island, 2nd edition, 1988.
  2639.  
  2640. 15. J. Buchmann, J. Loho, and J. Zayer. An implementation of the general 
  2641.     number field sieve. In Advances, in Cryptology --- Crypto '93, 
  2642.     Springer-Verlag, New York, 1994. To appear.
  2643.  
  2644. 16. J.P. Buhler, H.W. Lenstra, and C. Pomerance. Factoring integers with 
  2645.     the number field sieve. 1992. To appear.
  2646.  
  2647. 17. M.V.D. Burmester, Y.G. Desmedt, and T. Beth. Efficient zero-knowledge 
  2648.     identification schemes for smart cards. Computer Journal, 35:21--29, 1992.
  2649.  
  2650. 18. K.W. Campbell and M.J. Wiener. Proof that DES is not a group. In 
  2651.     Advances in Cryptology --- Crypto '92, Springer-Verlag, New York, 1993.
  2652.  
  2653. 19. CCITT (Consultative Committee on International Telegraphy and 
  2654.     Telephony). Recommendation X.509: The Directory---Authentication 
  2655.     Framework. 1988.
  2656.  
  2657. 20. Comptroller General of the United States. Matter of National Institute 
  2658.     of Standards and Technology --- Use of Electronic Data Interchange 
  2659.     Technology to Create Valid Obligations. December 13, 1991. File B-245714. 
  2660.  
  2661. 21. D. Coppersmith, A.M. Odlyzko, and R. Schroeppel. Discrete logarithms in 
  2662.     GF(p). Algorithmica, 1:1--15, 1986.
  2663.  
  2664. 22. T.H. Cormen, C.E. Leiserson, and R.L. Rivest. Introduction to Algorithms.
  2665.     MIT Press, Cambridge, Massachusetts, 1990.
  2666.  
  2667. 23. G. Davida. Chosen signature cryptanalysis of the RSA public key
  2668.     cryptosystem. Technical Report TR-CS-82-2, Dept of EECS, University of 
  2669.     Wisconsin, Milwaukee, 1982.
  2670.  
  2671. 24. B. den Boer and A. Bosselaers. An attack on the last two rounds of MD4.
  2672.     In Advances in Cryptology --- Crypto '91, pages 194--203, Springer-Verlag,
  2673.     New York, 1992.
  2674.  
  2675. 25. B. den Boer and A. Bosselaers. Collisions for the compression function 
  2676.     of MD5. In Advances in Cryptology --- Eurocrypt '93, 1993. Preprint.
  2677.  
  2678. 26. Dorothy E. Denning. The Clipper encryption system. American Scientist, 
  2679.     81(4):319--323, July--August 1993.
  2680.  
  2681. 27. W. Diffie. The first ten years of public-key cryptography. Proceedings 
  2682.     of the IEEE, 76:560--577, 1988.
  2683.  
  2684. 28. W. Diffie and M.E. Hellman. Exhaustive cryptanalysis of the NBS Data 
  2685.     Encryption Standard. Computer, 10:74--84, 1977.
  2686.  
  2687. 29. W. Diffie and M.E. Hellman. New directions in cryptography. IEEE 
  2688.     Transactions on Information Theory, IT-22:644--654, 1976.
  2689.  
  2690. 30. T. ElGamal. A public-key cryptosystem and a signature scheme based on 
  2691.     discrete logarithms. IEEE Transactions on Information Theory, 
  2692.     IT-31:469--472, 1985.
  2693.  
  2694. 31. A. Fiat and A. Shamir. How to prove yourself: Practical solutions to 
  2695.     identification and signature problems. In Advances in Cryptology --- 
  2696.     Crypto '86, pages 186--194, Springer-Verlag, New York, 1987.
  2697.  
  2698. 32. S. Goldwasser and S. Micali. Probabilistic encryption. J. of Computer 
  2699.     and System Sciences, 28:270--299, 1984.
  2700.  
  2701. 33. D.M. Gordon. Discrete logarithms using the number field sieve. March 28,
  2702.     1991. To appear. 
  2703.  
  2704. 34. D.M. Gordon and K.S. McCurley. Massively parallel computation of discrete
  2705.     logarithms. In Advances in Cryptology --- Crypto '92, Springer-Verlag, 
  2706.     New York, 1993.
  2707.  
  2708. 35. J. Hastad. Solving simultaneous modular equations of low degree. SIAM J.
  2709.     Computing, 17:336--241, 1988.
  2710.  
  2711. 36. M.E. Hellman. A cryptanalytic time-memory trade off. IEEE Transactions 
  2712.     on Information Theory, IT-26:401--406, 1980.
  2713.  
  2714. 37. D. Kahn. The Codebreakers. Macmillan Co., New York, 1967.
  2715.  
  2716. 38. B.S. Kaliski. A survey of encryption standards. RSA Data Security, Inc.,
  2717.     September 2, 1993.
  2718.  
  2719. 39. B.S. Kaliski Jr., R.L. Rivest, and A.T. Sherman. Is the data encryption 
  2720.     standard a group? J. of Cryptology, 1:3--36, 1988.
  2721.  
  2722. 40. S. Kent. RFC 1422: Privacy Enhancement for Internet Electronic Mail, 
  2723.     Part II: Certificate-Based Key Management. Internet Activities Board, 
  2724.     February 1993.
  2725.  
  2726. 41. D.E. Knuth. The Art of Computer Programming. Volume 2, Addison-Wesley, 
  2727.     Reading, Mass., 2nd edition, 1981. 
  2728.  
  2729. 42. N. Koblitz. A Course in Number Theory and Cryptography. Springer-Verlag, 
  2730.     New York, 1987.
  2731.  
  2732. 43. N. Koblitz. Elliptic curve cryptosystems. Mathematics of Computation, 
  2733.     48:203--209, 1987.
  2734.  
  2735. 44. X. Lai and J.L. Massey. A proposal for a new block encryption standard. 
  2736.     In Advances in Cryptology --- Eurocrypt '90, pages 389--404, 
  2737.     Springer-Verlag, Berlin, 1991. 
  2738.  
  2739. 45. B.A. LaMacchia and A.M. Odlyzko. Computation of discrete logarithms 
  2740.     in prime fields. Designs, Codes and Cryptography, 1:47--62, 1991. 
  2741.  
  2742. 46. S. Landau. Zero knowledge and the Department of Defense. Notices of 
  2743.     the American Mathematical Society, 35:5--12, 1988.
  2744.  
  2745. 47. A.K. Lenstra and H.W. Lenstra Jr. Algorithms in number theory. In J. 
  2746.     van Leeuwen, editor, Handbook of Theoretical Computer Science, MIT 
  2747.     Press/Elsevier, Amsterdam, 1990.
  2748.  
  2749. 48. A.K. Lenstra, H.W. Lenstra Jr., M.S. Manasse, and J.M. Pollard. The 
  2750.     factorization of the ninth Fermat number. 1991. To appear. 
  2751.  
  2752. 49. A.K. Lenstra and M.S. Manasse. Factoring with two large primes. In 
  2753.     Advances in Cryptology --- Eurocrypt '90, pages 72--82, Springer-Verlag, 
  2754.     Berlin, 1991. 
  2755.  
  2756. 50. H.W. Lenstra Jr. Factoring integers with elliptic curves. Ann. of Math., 
  2757.     126:649--673, 1987.
  2758.  
  2759. 51. M. Matsui. Linear cryptanalysis method for DES cipher. In Advances in 
  2760.     Cryptology --- Eurocrypt '93, Springer-Verlag, Berlin, 1993. To appear.
  2761.  
  2762. 52. R.C. Merkle and M.E. Hellman. Hiding information and signatures in 
  2763.     trapdoor knapsacks. IEEE Transactions on Information Theory, 
  2764.     IT-24:525--530, 1978.
  2765.  
  2766. 53. R.C. Merkle and M.E. Hellman. On the security of multiple encryption. 
  2767.     Communications of the ACM, 24:465--467, July 1981. 
  2768.  
  2769. 54. E. Messmer. NIST stumbles on proposal for public-key encryption. Network 
  2770.     World, 9(30), July 27, 1992.
  2771.  
  2772. 55. S. Micali. Fair public-key cryptosystems. In Advances in Cryptology --- 
  2773.     Crypto '92, Springer-Verlag, New York, 1993.
  2774.  
  2775. 56. V.S. Miller. Use of elliptic curves in cryptography. In Advances in 
  2776.     Cryptology --- Crypto '85, pages 417--426, Springer-Verlag, New York, 
  2777.     1986.
  2778.  
  2779. 57. National Institute of Standards and Technology (NIST). The Digital 
  2780.     Signature Standard, proposal and discussion. Communications of the ACM, 
  2781.     35(7):36--54, July 1992.
  2782.  
  2783. 58. National Institute of Standards and Technology (NIST). FIPS Publication 
  2784.     180: Secure Hash Standard (SHS). May 11, 1993.
  2785.  
  2786. 59. National Institute of Standards and Technology (NIST). FIPS Publication 
  2787.     46-1: Data Encryption Standard. January 22, 1988. Originally issued by 
  2788.     National Bureau of Standards.
  2789.  
  2790. 60. National Institute of Standards and Technology (NIST). FIPS Publication 
  2791.     81: DES Modes of Operation. December 2, 1980. Originally issued by 
  2792.     National Bureau of Standards.
  2793.  
  2794. 61. National Institute of Standards and Technology (NIST). Notice of 
  2795.     proposal for grant of exclusive patent license. Federal Register, 
  2796.     58(108), June 8, 1993.
  2797.  
  2798. 62. National Institute of Standards and Technology (NIST). A proposed 
  2799.     Federal Information Processing Standard for an Escrowed Encryption 
  2800.     Standard (EES). Federal Register, 58(145), July 30, 1993.
  2801.  
  2802. 63. National Institute of Standards and Technology (NIST). Publication XX: 
  2803.     Announcement and Specifications for a Digital Signature Standard (DSS).
  2804.     August 19, 1992.
  2805.  
  2806. 64. A.M. Odlyzko. Discrete logarithms in finite fields and their cryptographic
  2807.     significance. In Advances in Cryptology --- Eurocrypt '84, pages 224--314,
  2808.     Springer-Verlag, Berlin, 1984.
  2809.  
  2810. 65. Office of the Press Secretary. Statement. The White House, April 16, 1993.
  2811.  
  2812. 66. J. Pollard. Monte Carlo method for factorization. BIT, 15:331--334, 1975.
  2813.  
  2814. 67. J. Pollard. Theorems of factorization and primality testing. Proc. 
  2815.     Cambridge Philos. Soc., 76:521--528, 1974.
  2816.  
  2817. 68. M.O. Rabin. Digitalized signatures as intractable as factorization. 
  2818.     Technical Report MIT/LCS/TR-212, MIT, 1979.
  2819.  
  2820. 69. R.L. Rivest. Cryptography. In J. van Leeuwen, editor, Handbook of 
  2821.     Theoretical Computer Science, MIT Press/Elsevier, Amsterdam, 1990.
  2822.  
  2823. 70. R.L. Rivest. Finding four million random primes. In Advances in 
  2824.     Cryptology --- Crypto '90, pages 625--626, Springer-Verlag, New York, 
  2825.     1991. 
  2826.  
  2827. 71. R.L Rivest. The MD4 message digest algorithm. In Advances in Cryptology 
  2828.     --- Crypto '90, pages 303--311, Springer-Verlag, New York, 1991. 
  2829.  
  2830. 72. R.L. Rivest. Response to NIST's proposal. Communications of the ACM,
  2831.     35:41--47, July 1992.
  2832.  
  2833. 73. R.L. Rivest. RFC 1321: The MD5 Message-Digest Algorithm. Internet
  2834.     Activities Board, April 1992.
  2835.  
  2836. 74. R.L. Rivest, A. Shamir, and L. Adleman. A method for obtaining digital
  2837.     signatures and public-key cryptosystems. Communications of the ACM, 
  2838.     21(2):120--126, February 1978.
  2839.  
  2840. 75. C.P. Schnorr. Efficient identification and signatures for smart cards.
  2841.     In Advances in Cryptology --- Crypto '89, pages 239--251, 
  2842.     Springer-Verlag, New York, 1990.
  2843.  
  2844. 76. M. Shand and J. Vuillemin. Fast implementations of RSA cryptography. In
  2845.     Proceedings of the 11th IEEE Symposium on Computer Arithmetic, pages 
  2846.     252--259, IEEE Computer Society Press, Los Alamitos, CA, 1993.
  2847.  
  2848. 77. R.D. Silverman. The multiple polynomial quadratic sieve. Math. Comp., 
  2849.     48:329--339, 1987.
  2850.  
  2851. 78. M.E. Smid and D.K. Branstad. Response to comments on the NIST proposed
  2852.     Digital Signature Standard. In Advances in Cryptology --- Crypto '92,
  2853.     Springer-Verlag, New York, 1993.
  2854.  
  2855. 79. J.G. Steiner, B.C. Neuman, and J.I. Schiller. Kerberos: an authentication
  2856.     service for open network systems. In Usenix Conference Proceedings, pages
  2857.     191--202, Dallas, Texas, February 1988.
  2858.  
  2859. 80. M.J. Wiener. Efficient DES key search. August 20, 1993. Presented at 
  2860.     Crypto '93 rump session.
  2861.  
  2862.  
  2863.        --------------------------------------------
  2864.  
  2865. RSA Laboratories is the research and consultation division of RSA Data
  2866. Security, Inc., the company founded by the inventors of the RSA
  2867. public-key cryptosystem. RSA Laboratories reviews, designs and
  2868. implements secure and efficient cryptosystems of all kinds. Its
  2869. clients include government agencies, telecommunications companies,
  2870. computer manufacturers, software developers, cable TV broadcasters,
  2871. interactive video manufacturers, and satellite broadcast companies,
  2872. among others.
  2873.  
  2874. For more information about RSA Laboratories, call or write to 
  2875.                         RSA Laboratories
  2876.                         100 Marine Parkway
  2877.                         Redwood City, CA 94065
  2878.                         (415) 595-7703
  2879.                         (415) 595-4126 (fax)
  2880.  
  2881.  
  2882.  
  2883. PKCS, RSAREF and RSA Laboratories are trademarks of RSA Data
  2884. Security, Inc. All other trademarks belong to their respective 
  2885. companies.
  2886.  
  2887. This document is available in ASCII, Postscript, and Latex formats
  2888. via anonymous FTP to rsa.com:/pub/faq.
  2889.  
  2890. Please send comments and corrections to faq-editor@rsa.com.
  2891.  
  2892.  
  2893.  
  2894. ===
  2895. DISTRIBUTION: How to obtain this document
  2896.  
  2897. This document has been brought to you in part by CRAM, involved in the
  2898. redistribution of valuable information to a wider USENET audience (see
  2899. below). The most recent version of this document can be obtained via
  2900. the author's instructions above. The following directions apply to 
  2901. retrieve the possibly less-current USENET FAQ version.
  2902.  
  2903.   FTP
  2904.   ---
  2905.     This FAQ is available from the standard FAQ server rtfm.mit.edu via
  2906.     FTP in the directory /pub/usenet/news.answers/cryptography-faq/rsa/
  2907.  
  2908.   Email
  2909.   -----
  2910.     Email requests for FAQs go to mail-server@rtfm.mit.edu with commands
  2911.     on lines in the message body, e.g. `help' and `index'.
  2912.  
  2913.   Usenet
  2914.   ------
  2915.     This FAQ is posted every 21 days to the groups
  2916.  
  2917.       sci.crypt
  2918.       talk.politics.crypto
  2919.       alt.security.ripem
  2920.       sci.answers
  2921.       talk.answers
  2922.       alt.answers
  2923.       news.answers
  2924.  
  2925. _ _, _ ___ _, __,  _, _  _, ___ _  _, _, _ _  _, __,  _, _  _ ___ __,
  2926. | |\ | |_ / \ |_)  |\/| / \  |  | / \ |\ | | (_  |_) / \ |  | |_  | )
  2927. | | \| |  \ / | \  |  | |~|  |  | \ / | \| | , ) |   \ / |/\| |   |~\
  2928. ~ ~  ~ ~   ~  ~  ~ ~  ~ ~ ~  ~  ~  ~  ~  ~ ~  ~  ~    ~  ~  ~ ~~~ ~  ~
  2929.  
  2930. ===
  2931. CRAM: The Cyberspatial Reality Advancement Movement
  2932.  
  2933. In an effort to bring valuable information to the masses, and as a
  2934. service to motivated information compilers, a member of CRAM can help
  2935. others unfamiliar with Usenet `publish' their documents for
  2936. widespread dissemination via the FAQ structure, and act as a
  2937. `sponsor' knowledgable in the submissions process. This document is
  2938. being distributed under this arrangement.
  2939.  
  2940. We have found these compilations tend to appear on various mailing
  2941. lists and are valuable enough to deserve wider distribution. If you
  2942. know of an existing compilation of Internet information that is not
  2943. currently a FAQ, please contact us and we may `sponsor' it. The
  2944. benefits to the author include:
  2945.  
  2946. - use of the existing FAQ infrastructure for distribution:
  2947.   - automated mail server service
  2948.   - FTP archival
  2949.   - automated posting
  2950.  
  2951. - a far wider audience that can improve the quality, accuracy, and 
  2952.   coverage of the document enormously through email feedback
  2953.  
  2954. - potential professional inquiries for the use of your document in 
  2955.   other settings, such as newsletters, books, etc.
  2956.  
  2957. - with us as your sponsor, we will also take care of the 
  2958.   technicalities in the proper format of the posted version and 
  2959.   updating procedures, leaving you free of the `overhead' to focus on 
  2960.   the basic updates alone
  2961.  
  2962. The choice of who we `sponsor' is entirely arbitrary. You always have
  2963. the option of handling the submission process yourself.  See the FAQ
  2964. submission guidelines FAQ in news.answers. 
  2965.  
  2966. For information, send mail to <tmp@netcom.com>.
  2967.  
  2968.  \   \   \   \   \   \   \   \   \   |   /   /   /   /   /   /   /   /   /   /
  2969.           _______       ________          _____        _____  _____
  2970.          ///   \\\      |||   \\\        /// \\\       |||\\\///|||
  2971.         |||     ~~      |||   ///       |||   |||      ||| \\// |||
  2972.         |||     __      |||~~~\\\       |||~~~|||      |||  ~~  |||
  2973.          \\\   ///      |||    \\\      |||   |||      |||      |||
  2974.           ~~~~~~~       ~~~     ~~~     ~~~   ~~~      ~~~      ~~~
  2975.  /   /   /   /   /   /   /   /   /   |   \   \   \   \   \   \   \   \   \   \
  2976.  
  2977. C y b e r s p a t i a l  R e a l i t y  A d v a n c e m e n t  M o v e m e n t
  2978.  
  2979. * CIVILIZING CYBERSPACE: send `info cypherwonks' to majordomo@lists.eunet.fi *
  2980.  
  2981.  
  2982.